[c#] मैं एन्कोडिंग मैन्युअल रूप से निर्दिष्ट किए बिना सी # में तारों का लगातार बाइट प्रतिनिधित्व कैसे प्राप्त करूं?


यह आपकी स्ट्रिंग के एन्कोडिंग पर निर्भर करता है ( ASCII , UTF-8 , ...)।

उदाहरण के लिए:

byte[] b1 = System.Text.Encoding.UTF8.GetBytes (myString);
byte[] b2 = System.Text.Encoding.ASCII.GetBytes (myString);

एन्कोडिंग मामलों का एक छोटा सा नमूना क्यों:

string pi = "\u03a0";
byte[] ascii = System.Text.Encoding.ASCII.GetBytes (pi);
byte[] utf8 = System.Text.Encoding.UTF8.GetBytes (pi);

Console.WriteLine (ascii.Length); //Will print 1
Console.WriteLine (utf8.Length); //Will print 2
Console.WriteLine (System.Text.Encoding.ASCII.GetString (ascii)); //Will print '?'

एएससीआईआईआई विशेष पात्रों से निपटने के लिए सुसज्जित नहीं है।

आंतरिक रूप से, .NET ढांचा स्ट्रिंग का प्रतिनिधित्व करने के लिए UTF-16 का उपयोग करता है, इसलिए यदि आप बस सटीक बाइट्स प्राप्त करना चाहते हैं जो .NET उपयोग करता है, तो System.Text.Encoding.Unicode.GetBytes (...) उपयोग करें।

अधिक जानकारी के लिए .NET Framework (MSDN) में वर्ण एन्कोडिंग देखें।


मैन्युअल रूप से एक विशिष्ट एन्कोडिंग निर्दिष्ट किए बिना मैं string को एक byte[] में .NET (C #) में कैसे परिवर्तित करूं?

मैं स्ट्रिंग एन्क्रिप्ट करने जा रहा हूँ। मैं इसे परिवर्तित किए बिना एन्क्रिप्ट कर सकता हूं, लेकिन मैं अभी भी जानना चाहता हूं कि यहां एन्कोडिंग क्यों खेलती है।

इसके अलावा, एन्कोडिंग को क्यों ध्यान में रखा जाना चाहिए? क्या मैं बस स्ट्रिंग को संग्रहीत करने वाले बाइट्स को नहीं प्राप्त कर सकता हूं? चरित्र एन्कोडिंग पर निर्भरता क्यों है?

The closest approach to the OP's question is Tom Blodget's, which actually goes into the object and extracts the bytes. I say closest because it depends on implementation of the String Object.

"Can't I simply get what bytes the string has been stored in?"

Sure, but that's where the fundamental error in the question arises. The String is an object which could have an interesting data structure. We already know it does, because it allows unpaired surrogates to be stored. It might store the length. It might keep a pointer to each of the 'paired' surrogates allowing quick counting. Etc. All of these extra bytes are not part of the character data.

What you want is each character's bytes in an array. And that is where 'encoding' comes in. By default you will get UTF-16LE. If you don't care about the bytes themselves except for the round trip then you can choose any encoding including the 'default', and convert it back later (assuming the same parameters such as what the default encoding was, code points, bug fixes, things allowed such as unpaired surrogates, etc.

But why leave the 'encoding' up to magic? Why not specify the encoding so that you know what bytes you are gonna get?

"Why is there a dependency on character encodings?"

Encoding (in this context) simply means the bytes that represent your string. Not the bytes of the string object. You wanted the bytes the string has been stored in -- this is where the question was asked naively. You wanted the bytes of string in a contiguous array that represent the string, and not all of the other binary data that a string object may contain.

Which means how a string is stored is irrelevant. You want a string "Encoded" into bytes in a byte array.

I like Tom Bloget's answer because he took you towards the 'bytes of the string object' direction. It's implementation dependent though, and because he's peeking at internals it might be difficult to reconstitute a copy of the string.

Mehrdad's response is wrong because it is misleading at the conceptual level. You still have a list of bytes, encoded. His particular solution allows for unpaired surrogates to be preserved -- this is implementation dependent. His particular solution would not produce the string's bytes accurately if GetBytes returned the string in UTF-8 by default.

I've changed my mind about this (Mehrdad's solution) -- this isn't getting the bytes of the string; rather it is getting the bytes of the character array that was created from the string. Regardless of encoding, the char datatype in c# is a fixed size. This allows a consistent length byte array to be produced, and it allows the character array to be reproduced based on the size of the byte array. So if the encoding were UTF-8, but each char was 6 bytes to accommodate the largest utf8 value, it would still work. So indeed -- encoding of the character does not matter.

But a conversion was used -- each character was placed into a fixed size box (c#'s character type). However what that representation is does not matter, which is technically the answer to the OP. So -- if you are going to convert anyway... Why not 'encode'?

BinaryFormatter bf = new BinaryFormatter();
byte[] bytes;
MemoryStream ms = new MemoryStream();

string orig = "喂 Hello 谢谢 Thank You";
bf.Serialize(ms, orig);
ms.Seek(0, 0);
bytes = ms.ToArray();

MessageBox.Show("Original bytes Length: " + bytes.Length.ToString());

MessageBox.Show("Original string Length: " + orig.Length.ToString());

for (int i = 0; i < bytes.Length; ++i) bytes[i] ^= 168; // pseudo encrypt
for (int i = 0; i < bytes.Length; ++i) bytes[i] ^= 168; // pseudo decrypt

BinaryFormatter bfx = new BinaryFormatter();
MemoryStream msx = new MemoryStream();            
msx.Write(bytes, 0, bytes.Length);
msx.Seek(0, 0);
string sx = (string)bfx.Deserialize(msx);

MessageBox.Show("Still intact :" + sx);

MessageBox.Show("Deserialize string Length(still intact): " 
    + sx.Length.ToString());

BinaryFormatter bfy = new BinaryFormatter();
MemoryStream msy = new MemoryStream();
bfy.Serialize(msy, sx);
msy.Seek(0, 0);
byte[] bytesy = msy.ToArray();

MessageBox.Show("Deserialize bytes Length(still intact): " 
   + bytesy.Length.ToString());

The key issue is that a glyph in a string takes 32 bits (16 bits for a character code) but a byte only has 8 bits to spare. A one-to-one mapping doesn't exist unless you restrict yourself to strings that only contain ASCII characters. System.Text.Encoding has lots of ways to map a string to byte[], you need to pick one that avoids loss of information and that is easy to use by your client when she needs to map the byte[] back to a string.

Utf8 is a popular encoding, it is compact and not lossy.

इसे आज़माएं, बहुत कम कोड:

System.Text.Encoding.UTF8.GetBytes("TEST String");

एक string को byte सरणी में कनवर्ट करने के लिए सी #:

public static byte[] StrToByteArray(string str)
   System.Text.UTF8Encoding  encoding=new System.Text.UTF8Encoding();
   return encoding.GetBytes(str);

It depends on what you want the bytes FOR

This is because, as Tyler so aptly said , "Strings aren't pure data. They also have information ." In this case, the information is an encoding that was assumed when the string was created.

Assuming that you have binary data (rather than text) stored in a string

This is based off of OP's comment on his own question, and is the correct question if I understand OP's hints at the use-case.

Storing binary data in strings is probably the wrong approach because of the assumed encoding mentioned above! Whatever program or library stored that binary data in a string (instead of a byte[] array which would have been more appropriate) has already lost the battle before it has begun. If they are sending the bytes to you in a REST request/response or anything that must transmit strings, Base64 would be the right approach.

If you have a text string with an unknown encoding

Everybody else answered this incorrect question incorrectly.

If the string looks good as-is, just pick an encoding (preferably one starting with UTF), use the corresponding System.Text.Encoding.???.GetBytes() function, and tell whoever you give the bytes to which encoding you picked.

simple code with LINQ

string s = "abc"
byte[] b = s.Select(e => (byte)e).ToArray();

EDIT : as commented below, it is not a good way.

but you can still use it to understand LINQ with a more appropriate coding :

string s = "abc"
byte[] b = s.Cast<byte>().ToArray();

Two ways:

public static byte[] StrToByteArray(this string s)
    List<byte> value = new List<byte>();
    foreach (char c in s.ToCharArray())
    return value.ToArray();


public static byte[] StrToByteArray(this string s)
    s = s.Replace(" ", string.Empty);
    byte[] buffer = new byte[s.Length / 2];
    for (int i = 0; i < s.Length; i += 2)
        buffer[i / 2] = (byte)Convert.ToByte(s.Substring(i, 2), 16);
    return buffer;

I tend to use the bottom one more often than the top, haven't benchmarked them for speed.

If you really want a copy of the underlying bytes of a string, you can use a function like the one that follows. However, you shouldn't please read on to find out why.

        EntryPoint = "memcpy",
        CallingConvention = CallingConvention.Cdecl,
        SetLastError = false)]
private static extern unsafe void* UnsafeMemoryCopy(
    void* destination,
    void* source,
    uint count);

public static byte[] GetUnderlyingBytes(string source)
    var length = source.Length * sizeof(char);
    var result = new byte[length];
        fixed (char* firstSourceChar = source)
        fixed (byte* firstDestination = result)
            var firstSource = (byte*)firstSourceChar;

    return result;

This function will get you a copy of the bytes underlying your string, pretty quickly. You'll get those bytes in whatever way they are encoding on your system. This encoding is almost certainly UTF-16LE but that is an implementation detail you shouldn't have to care about.

It would be safer, simpler and more reliable to just call,


In all likelihood this will give the same result, is easier to type, and the bytes will always round-trip with a call to



    string text = "string";
    byte[] array = System.Text.Encoding.UTF8.GetBytes(text);

The result is:

[0] = 115
[1] = 116
[2] = 114
[3] = 105
[4] = 110
[5] = 103

यह एक लोकप्रिय सवाल है। यह समझना महत्वपूर्ण है कि प्रश्न लेखक क्या पूछ रहा है, और यह कि सबसे सामान्य आवश्यकता की तुलना में अलग है। उस कोड के दुरुपयोग को हतोत्साहित करने के लिए जहां इसकी आवश्यकता नहीं है, मैंने बाद में उत्तर दिया है।

सामान्य आवश्यकता

प्रत्येक स्ट्रिंग में एक चरित्र सेट और एन्कोडिंग होता है। जब आप System.String ऑब्जेक्ट को System.Byte सरणी में कनवर्ट करते हैं। System.Byte आपके पास अभी भी एक वर्ण सेट और एन्कोडिंग है। अधिकांश उपयोगों के लिए, आपको पता चलेगा कि आपको कौन सा चरित्र सेट और एन्कोडिंग चाहिए और .NET "रूपांतरण के साथ प्रतिलिपि" बनाना आसान बनाता है। बस उचित Encoding कक्षा का चयन करें।

// using System.Text;
Encoding.UTF8.GetBytes(".NET String to byte array")

रूपांतरण को उन मामलों को संभालने की आवश्यकता हो सकती है जहां लक्षित वर्ण सेट या एन्कोडिंग स्रोत में मौजूद किसी वर्ण का समर्थन नहीं करती है। आपके पास कुछ विकल्प हैं: अपवाद, प्रतिस्थापन या छोड़ना। डिफ़ॉल्ट नीति '?' को प्रतिस्थापित करना है।

// using System.Text;
var text = Encoding.ASCII.GetString(Encoding.ASCII.GetBytes("You win €100")); 
                                                      // -> "You win ?100"

जाहिर है, रूपांतरण जरूरी नहीं हैं!

नोट: System.String लिए। स्रोत चरित्र सेट System.String यूनिकोड है।

एकमात्र भ्रमित बात यह है कि .NET उस चरित्र सेट के एक विशेष एन्कोडिंग के नाम के लिए वर्ण सेट के नाम का उपयोग करता है। Encoding.UnicodeEncoding.UTF16 को Encoding.UTF16 कहा जाना चाहिए।

यह ज्यादातर उपयोग के लिए है। यदि आपको यही चाहिए, तो यहां पढ़ना बंद करें। यदि आप समझ नहीं पाते कि एन्कोडिंग क्या है, तो joelonsoftware.com/articles/Unicode.html मजेदार देखें।

विशिष्ट आवश्यकता

अब, प्रश्न लेखक पूछता है, "प्रत्येक स्ट्रिंग बाइट्स की सरणी के रूप में संग्रहीत होती है, है ना? मुझे बस उन बाइट्स क्यों नहीं मिल सकते हैं?"

वह कोई रूपांतरण नहीं चाहता है।

सी # spec से :

सी # में कैरेक्टर और स्ट्रिंग प्रसंस्करण यूनिकोड एन्कोडिंग का उपयोग करता है। चार प्रकार एक यूटीएफ -16 कोड इकाई का प्रतिनिधित्व करता है, और स्ट्रिंग प्रकार यूटीएफ -16 कोड इकाइयों के अनुक्रम का प्रतिनिधित्व करता है।

इसलिए, हम जानते हैं कि अगर हम शून्य रूपांतरण (यानी, यूटीएफ -16 से यूटीएफ -16 तक) मांगते हैं, तो हमें वांछित परिणाम मिलेंगे:

Encoding.Unicode.GetBytes(".NET String to byte array")

लेकिन एन्कोडिंग के उल्लेख से बचने के लिए, हमें इसे एक और तरीके से करना होगा। यदि एक मध्यवर्ती डेटा प्रकार स्वीकार्य है, तो इसके लिए एक वैचारिक शॉर्टकट है:

".NET String to byte array".ToCharArray()

यह हमें वांछित डेटाटाइप नहीं प्राप्त करता है लेकिन मेहरदाद का जवाब दिखाता है कि इस चार सरणी को BlockCopy का उपयोग करके बाइट सरणी में कैसे परिवर्तित किया जाए। हालांकि, यह दो बार स्ट्रिंग की प्रतिलिपि बनाता है! और, यह भी स्पष्ट रूप से एन्कोडिंग-विशिष्ट कोड का उपयोग करता है: डेटाटाइप System.CharSystem.Char

एक बाइनर का उपयोग करने के लिए स्ट्रिंग को संग्रहीत वास्तविक बाइट्स को प्राप्त करने का एकमात्र तरीका है। fixed कथन मूल्यों का पता लेने की अनुमति देता है। सी # spec से:

[के लिए] प्रकार स्ट्रिंग की अभिव्यक्ति, ... प्रारंभकर्ता स्ट्रिंग में पहले वर्ण के पते की गणना करता है।

ऐसा करने के लिए, कंपाइलर स्ट्रिंग ऑब्जेक्ट के अन्य हिस्सों पर RuntimeHelpers.OffsetToStringData साथ कोड छोड़ RuntimeHelpers.OffsetToStringData । इसलिए, कच्चे बाइट प्राप्त करने के लिए, बस स्ट्रिंग में एक पॉइंटर बनाएं और आवश्यक बाइट्स की संख्या कॉपी करें।

// using System.Runtime.InteropServices
unsafe byte[] GetRawBytes(String s)
    if (s == null) return null;
    var codeunitCount = s.Length;
    /* We know that String is a sequence of UTF-16 codeunits 
       and such codeunits are 2 bytes */
    var byteCount = codeunitCount * 2; 
    var bytes = new byte[byteCount];
    fixed(void* pRaw = s)
        Marshal.Copy((IntPtr)pRaw, bytes, 0, byteCount);
    return bytes;

जैसा कि @CodesInChaos ने बताया, परिणाम मशीन की अंतहीनता पर निर्भर करता है। लेकिन सवाल लेखक उस से चिंतित नहीं है।

With the advent of Span<T> released with C# 7.2, the canonical technique to capture the underlying memory representation of a string into a managed byte array is:

byte[] bytes = "rubbish_\u9999_string".AsSpan().AsBytes().ToArray();

Converting it back should be a non-starter because that means you are in fact interpreting the data somehow, but for the sake of completeness:

string s;
    fixed (char* f = &bytes.AsSpan().NonPortableCast<byte, char>().DangerousGetPinnableReference())
        s = new string(f);

The names NonPortableCast and DangerousGetPinnableReference should further the argument that you probably shouldn't be doing this.

Note that working with Span<T> requires installing the System.Memory NuGet package .

Regardless, the actual original question and follow-up comments imply that the underlying memory is not being "interpreted" (which I assume means is not modified or read beyond the need to write it as-is), indicating that some implementation of the Stream class should be used instead of reasoning about the data as strings at all.

You can use the following code for conversion between string and byte array.

string s = "Hello World";

// String to Byte[]

byte[] byte1 = System.Text.Encoding.Default.GetBytes(s);

// OR

byte[] byte2 = System.Text.ASCIIEncoding.Default.GetBytes(s);

// Byte[] to string

string str = System.Text.Encoding.UTF8.GetString(byte1);

खैर, मैंने सभी उत्तरों को पढ़ लिया है और वे एन्कोडिंग या सीरियलाइजेशन के बारे में एक थे जो अनपेक्षित सरोगेट छोड़ देता है।

यह खराब है जब स्ट्रिंग, उदाहरण के लिए, SQL सर्वर से आता है जहां इसे एक बाइट सरणी संग्रह से बनाया गया था, उदाहरण के लिए, एक पासवर्ड हैश। अगर हम इससे कुछ भी छोड़ देते हैं, तो यह एक अवैध हैश स्टोर करेगा, और अगर हम इसे एक्सएमएल में स्टोर करना चाहते हैं, तो हम इसे बरकरार रखना चाहते हैं (क्योंकि एक्सएमएल लेखक किसी भी अप्रयुक्त सरोगेट पर अपवाद छोड़ देता है)।

तो मैं ऐसे मामलों में बाइट एरे के Base64 एन्कोडिंग का उपयोग करता हूं, लेकिन हे, इंटरनेट पर सी # में इसका एक ही समाधान है, और इसमें इसमें बग है और यह केवल एक ही तरीका है, इसलिए मैंने बग तय कर लिया है और वापस लिखा है प्रक्रिया। यहां आप भविष्य के googlers हैं:

public static byte[] StringToBytes(string str)
    byte[] data = new byte[str.Length * 2];
    for (int i = 0; i < str.Length; ++i)
        char ch = str[i];
        data[i * 2] = (byte)(ch & 0xFF);
        data[i * 2 + 1] = (byte)((ch & 0xFF00) >> 8);

    return data;

public static string StringFromBytes(byte[] arr)
    char[] ch = new char[arr.Length / 2];
    for (int i = 0; i < ch.Length; ++i)
        ch[i] = (char)((int)arr[i * 2] + (((int)arr[i * 2 + 1]) << 8));
    return new String(ch);



c# c#   .net .net   string