sql server - Berechnen Sie den MD5-Hash eines UTF8-Strings




sql-server tsql (2)

Ich habe eine SQL-Tabelle, in der ich große Zeichenfolgenwerte speichere, die eindeutig sein müssen. Um die Eindeutigkeit sicherzustellen, habe ich einen eindeutigen Index für eine Spalte, in der ich eine Zeichenfolgendarstellung des MD5-Hash der großen Zeichenfolge speichere.

Die C # -Anwendung, die diese Datensätze speichert, verwendet die folgende Methode, um das Hashing durchzuführen:

public static string CreateMd5HashString(byte[] input)
{
    var hashBytes = MD5.Create().ComputeHash(input);
    return string.Join("", hashBytes.Select(b => b.ToString("X")));
}

Um dies aufzurufen, konvertiere ich zuerst den string in byte[] mit der UTF-8-Codierung:

// this is what I use in my app
CreateMd5HashString(Encoding.UTF8.GetBytes("abc"))
// result: 90150983CD24FB0D6963F7D28E17F72

Jetzt möchte ich diese Hashing-Funktion mit der HASHBYTES Funktion in SQL HASHBYTES können , aber ich erhalte einen anderen Wert:

print hashbytes('md5', N'abc')
-- result: 0xCE1473CF80C6B3FDA8E3DFC006ADC315

Dies liegt daran, dass SQL das MD5 der UTF-16-Darstellung der Zeichenfolge berechnet. Ich erhalte das gleiche Ergebnis in C #, wenn ich CreateMd5HashString(Encoding.Unicode.GetBytes("abc")) .

Ich kann die Art und Weise, wie das Hashing in der Anwendung durchgeführt wird, nicht ändern.

Gibt es eine Möglichkeit, SQL Server zu veranlassen, den MD5-Hash der UTF-8-Bytes der Zeichenfolge zu berechnen?

Ich suchte nach ähnlichen Fragen, versuchte, Kollatierungen zu verwenden, hatte aber bisher kein Glück.


SQL Server unterstützt die Verwendung von UTF-8-Zeichenfolgen von Haus aus nicht und dies ist seit einiger Zeit nicht mehr der Fall. Wie Sie bemerkt haben, verwenden NCHAR und NVARCHAR UCS-2 anstelle von UTF-8 .

Wenn Sie die HASHBYTES Funktion nicht verwenden HASHBYTES , müssen Sie in der Lage sein, das UTF-8- byte[] als VARBINARY aus Ihrem C # -Code zu übergeben, um die Codierung VARBINARY . HASHBYTES akzeptiert VARBINARY anstelle von NVARCHAR . Dies könnte mit einer CLR-Funktion erreicht werden, die NVARCHAR akzeptiert und die Ergebnisse von Encoding.UTF8.GetBytes als VARBINARY .

Vor diesem Hintergrund empfehle ich dringend , diese Art von Geschäftsregeln in Ihrer Anwendung und nicht in der Datenbank zu isolieren. Zumal die Anwendung diese Logik bereits ausführt.


Sie müssen eine UDF erstellen, um die NVARCHAR-Daten in UTF-8-Darstellung in Bytes zu konvertieren. dbo.NCharToUTF8Binary es heißt dbo.NCharToUTF8Binary dann können Sie dbo.NCharToUTF8Binary tun:

hashbytes('md5', dbo.NCharToUTF8Binary(N'abc', 1))

Hier ist eine UDF, die das macht:

create function dbo.NCharToUTF8Binary(@txt NVARCHAR(max), @modified bit)
returns varbinary(max)
as
begin
-- Note: This is not the fastest possible routine. 
-- If you want a fast routine, use SQLCLR
    set @modified = isnull(@modified, 0)
    -- First shred into a table.
    declare @chars table (
    ix int identity primary key,
    codepoint int,
    utf8 varbinary(6)
    )
    declare @ix int
    set @ix = 0
    while @ix < datalength(@txt)/2  -- trailing spaces
    begin
        set @ix = @ix + 1
        insert @chars(codepoint)
        select unicode(substring(@txt, @ix, 1))
    end

    -- Now look for surrogate pairs.
    -- If we find a pair (lead followed by trail) we will pair them
    -- High surrogate is \uD800 to \uDBFF
    -- Low surrogate  is \uDC00 to \uDFFF
    -- Look for high surrogate followed by low surrogate and update the codepoint   
    update c1 set codepoint = ((c1.codepoint & 0x07ff) * 0x0800) + (c2.codepoint & 0x07ff) + 0x10000
    from @chars c1 inner join @chars c2 on c1.ix = c2.ix -1
    where c1.codepoint >= 0xD800 and c1.codepoint <=0xDBFF
    and c2.codepoint >= 0xDC00 and c2.codepoint <=0xDFFF
    -- Get rid of the trailing half of the pair where found
    delete c2 
    from @chars c1 inner join @chars c2 on c1.ix = c2.ix -1
    where c1.codepoint >= 0x10000

    -- Now we utf-8 encode each codepoint.
    -- Lone surrogate halves will still be here
    -- so they will be encoded as if they were not surrogate pairs.
    update c 
    set utf8 = 
    case 
    -- One-byte encodings (modified UTF8 outputs zero as a two-byte encoding)
    when codepoint <= 0x7f and (@modified = 0 OR codepoint <> 0)
    then cast(substring(cast(codepoint as binary(4)), 4, 1) as varbinary(6))
    -- Two-byte encodings
    when codepoint <= 0x07ff
    then substring(cast((0x00C0 + ((codepoint/0x40) & 0x1f)) as binary(4)),4,1)
    + substring(cast((0x0080 + (codepoint & 0x3f)) as binary(4)),4,1)
    -- Three-byte encodings
    when codepoint <= 0x0ffff
    then substring(cast((0x00E0 + ((codepoint/0x1000) & 0x0f)) as binary(4)),4,1)
    + substring(cast((0x0080 + ((codepoint/0x40) & 0x3f)) as binary(4)),4,1)
    + substring(cast((0x0080 + (codepoint & 0x3f)) as binary(4)),4,1)
    -- Four-byte encodings 
    when codepoint <= 0x1FFFFF
    then substring(cast((0x00F0 + ((codepoint/0x00040000) & 0x07)) as binary(4)),4,1)
    + substring(cast((0x0080 + ((codepoint/0x1000) & 0x3f)) as binary(4)),4,1)
    + substring(cast((0x0080 + ((codepoint/0x40) & 0x3f)) as binary(4)),4,1)
    + substring(cast((0x0080 + (codepoint & 0x3f)) as binary(4)),4,1)

    end
    from @chars c

    -- Finally concatenate them all and return.
    declare @ret varbinary(max)
    set @ret = cast('' as varbinary(max))
    select @ret = @ret + utf8 from @chars c order by ix
    return  @ret

end




sql-server-2008-r2