컴퓨터를 사용함에 있어서 데이터 크기에 대한 단위들이 여러가지 있다. 그런 단위들에 대해 간략하게 알아보도록 한다.


- 비트(bit) 

https://en.wikipedia.org/wiki/Bit

비트는 Binary Digit의 약자이다. 직역하면 이진 숫자가 된다. 0아니면 1밖에 없으므로 이진(binary)가 맞으며, 숫자를 나타내는 것이 맞다. 이진법으로 나타낸 수의 한 자리에 차지하고 있는 숫자 하나를 의미한다고 봐도 의미가 맞다.


이 bit라는 용어는샤넌이라고 하는 사람이 1948년에 낸 논문에서 처음 사용했다고 한다. 저 샤넌이라고 하는 사람은 "정보공학의 아버지"라고 불린다고 한다. 수학자이면서, 전자전기공학자, 암호학자였고 bit라는 개념은 최초로 정보의 크기를 정의했다는 점에서 의미가 있다고 한다.

1946년에 애니악이 제작되었으므로, 컴퓨터 공학의 입장에서는 최초의 컴퓨터가 생긴지 얼마 안되었을 때 나타난 개념이다.


지금의 컴퓨터는 정보를 처리하는 수단으로서 주도적인 역할을 하고 있으니, 이때 정보의 크기를 규정할 수 있다는 것은 큰 의미가 있다고 볼 수 있다.


- 니블(nibble)

https://en.wikipedia.org/wiki/Nibble

니블은 4bit를 나타낸다. 하프 바이트(half-byte) 혹은 테트라드(tetrade)나 세미-옥텟(semi-octet), 쿼드비트(quadbit)나 쿼텟(quartet)이라고 불리기도 한다. 그리고 4비트는 10진수로 0부터 15까지의 수를 나타낼 수 있으므로 16진수(hexa-decimal)로 나타낸 수의 한 글자(digit)이라고 볼 수 있다. 따라서 hex-digit라고도 불린다. 하지만 요즘은 이러한 다양한 부르는 방법들을 잘 쓰지 않고, 궂이 언급한다면 hex code의 한 글자로서 간접적으로 불린다.

이러한 4비트에 따로 이름을 두어서 사용하는 이유는 10진수 한 자리 수(0~9)를 나타낼 수 있는 최소 정보단위가 4비트이기 때문이다.


- 바이트(byte)

https://en.wikipedia.org/wiki/Byte

원래의 의미는 글자 1글자를 나타내기 위한 용량을 뜻하게 되었는데, ASCII코드로 영어 대,소문자 및 일부 특수문자들을 다 표현할 수 있으므로, ASCII의 7bit에 패리티 비트 1bit를 붙여서 8bit로 영어 문자들을 다 표현할 수 있다. 이로써 1바이트가 8bit로 관례적으로 굳어지게 된다. 일반적으로 1바이트라고 하면 8비트를 뜻하게 된다.



+ Recent posts