1. Bit
2. Byte
3. Sistema
binario
3.4 Operaciones
con números binarios
3.5 Conversión
entre sistema binario y octal
3.6 Conversión
entre binario y hexadecimal
4. ASCII
Bit
Bit es el acrónimo de Binary digit (o sea de ‘dígito binario’, en
español señalado como bit o bitio). Un bit es un dígito del sistema de numeración binario. La capacidad de
almacenamiento de una memoria digital también se mide en bits, pues esta
palabra tiene varias acepciones.[
El bit es la unidad mínima de
información empleada en informática,
en cualquier dispositivo digital, o en la teoría de la información.
Con un bit podemos
representar solamente dos valores o dos diferentes estados, que suelen
representarse como 0, 1. Para
representar o codificar
más información en un dispositivo digital, necesitamos una mayor cantidad de
bits.
Little endian y big endian se
refieren al orden que las máquinas asignan a los bytes que representan números
o valores numéricos. Una máquina little endian asigna los bytes menos
significativos en el extremo más bajo de la memoria, mientras que una máquina
big endian asigna los bytes menos significativos en el extremo más alto. En los
computadores, cada byte se identifica con su
posición en la memoria. Cuando se manejan números
de más de un byte, estos bytes también deben estar ordenados de menor a mayor,
indicando la posición del byte menos significativo y del byte más
significativo.
Byte
Byte proviene de bite (en inglés “mordisco”), como la cantidad más pequeña de datos que un ordenador
podía “morder”a la vez. El
cambio de letra no solo redujo la posibilidad de confundirlo con bit, sino que
también era consistente con la afición de los primeros científicos en computación
en crear palabras y cambiar letras. Sin embargo, en los años 1960, en el
Departamento de Educación de IBM del Reino Unido se enseñaba que un bit era un
Binary digIT y un byte era un BinarY TuplE. Un byte también se conocía como “un byte de 8 bits”, reforzando la
noción de que era una tupla de n bits y que se permitían otros tamaños.
1. Es una secuencia contigua de bits en un flujo de datos
serie, como en comunicaciones por módem o satélite, o desde un cabezal de disco
duro, y es la unidad de datos más pequeña con significado. Estos bytes pueden
incluir bits de inicio, parada o paridad, y según los casos, podrían contener
de 7 a 12 bits, para así contemplar todas las posibilidades del código ASCII de
7 bits, o de extensiones de dicho código.
2. Es un tipo de datos o un sinónimo en ciertos lenguajes
de programación. En el lenguaje C por ejemplo, se define byte como la “unidad de datos de almacenamiento direccionable lo
suficientemente grande como para albergar cualquier miembro del juego de
caracteres básico del entorno de ejecución
El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras
fases de diseño del IBM 7030
Stretch. Originalmente
fue definido en instrucciones de 4 bits, permitiendo desde uno hasta dieciséis
bits en un byte pero tras la necesidad de agregar letras minúsculas, así como
una mayor cantidad de símbolos y signos de puntuación, se tuvieron que idear
otros modelos con mayor cantidad de bits.
Originalmente el byte fue elegido para ser un submúltiplo
del tamaño de palabra de un ordenador, desde cinco a doce bits. La popularidad
de la arquitectura
IBM S/360 que empezó en
los años 1960
y la explosión de las microcomputadoras
basadas en microprocesadores
de 8 bits en los años 1980
ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits.
El IEEE 1541 especifica “b” (minúscula) como el símbolo
para bit. Sin embargo la IEC
60027 y el MIXF especifican “bit” (por ejemplo Mbit para megabit), teniendo la
máxima desambiguación posible de byte. “b” vs. “B también se utilizan los prefijos binarios, pero
existen diferencias entre ellos, ya que según el tipo de prefijo utilizado los
bytes resultantes tienen valores diferentes.
El sistema binario, llamado
también sistema diádico en ciencias de la computación, es un sistema de numeración en el que los números se representan utilizando solamente las cifras
Sistema binario
cero y uno (0 y 1). Es uno de los que
se utilizan en las computadoras, debido a que estas trabajan internamente con
dos niveles de voltaje, por lo cual su sistema de
numeración natural es el sistema binario (encendido 1, apagado 0).
El antiguo matemático indio Pingala
presentó la primera descripción que se conoce de un sistema de numeración
binario en el siglo tercero antes de nuestra era, lo cual coincidió con su
descubrimiento del concepto del número cero.
En 1605 Francis Bacon habló de un sistema por el cual las letras del
alfabeto podrían reducirse a secuencias de dígitos binarios, las cuales podrían
ser codificadas como variaciones apenas visibles en la fuente de cualquier
texto arbitrario.
En 1854,
el matemático británico George Boole publicó un artículo que marcó un antes y un
después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema desempeñaría un papel
fundamental en el desarrollo del sistema binario actual, particularmente en el
desarrollo de circuitos electrónicos.
En 1937, Claude Shannon
realizó su tesis doctoral en el MIT, en la cual implementaba el Álgebra de Boole y aritmética binaria utilizando relés y conmutadores
por primera vez en la historia.
Un número binario puede ser
representado por cualquier secuencia de bits (dígitos binarios), que suelen
representar cualquier mecanismo capaz de usar dos estados mutuamente
excluyentes. Las siguientes secuencias de símbolos podrían ser interpretadas
como el mismo valor numérico binario:
Las notaciones siguientes son
equivalentes:
-100101 binario (declaración
explícita de formato)
-100101b (un sufijo que
indica formato binario)
-100101B (un sufijo que
indica formato binario)
-bin 100101 (un prefijo que
indica formato binario)
-1001012 (un subíndice que
indica base 2 (binaria) notación)
-%100101 (un prefijo que
indica formato binario)
-0b100101 (un prefijo que
indica formato binario, común en lenguajes de programación)
Sistema binario a octal
Debido a que el sistema octal
tiene como base 8, que es la tercera potencia de 2, y que dos es la base del
sistema binario, es posible establecer un método directo para convertir de la
base dos a la base ocho, sin tener que convertir de binario a decimal y luego
de decimal a octal. Este método se describe a continuación:
Para realizar la conversión
de binario a octal, realice lo siguiente:
Agrupe la cantidad binaria en
grupos de 3 en 3 iniciando por el lado derecho. Si al terminar de agrupar no
completa 3 dígitos, entonces agregue ceros a la izquierda.
Posteriormente vea el valor
que corresponde de acuerdo a la tabla:
La cantidad correspondiente
en octal se agrupa de izquierda a derecha.
Octal a binario
Cada dígito octal se
convierte en su binario equivalente de 3 bits y se juntan en el mismo orden.
Binario a hexadecimal
Para realizar la conversión
de binario a hexadecimal, realice lo siguiente:
Agrupe la cantidad binaria en
grupos de 4 en 4 iniciando por el lado derecho. Si al terminar de agrupar no
completa 4 dígitos, entonces agregue ceros a la izquierda.
Posteriormente vea el valor que
corresponde de acuerdo a la tabla:
La cantidad correspondiente
en hexadecimal se agrupa de derecha a izquierda.
Hexadecimal a binario
Note que para pasar de
Hexadecimal a binario, se remplaza el número Hexadecimal por el equivalente de
4 bits, de forma similar a como se hace de octal a binario.
ASCII
Es un código de
caracteres basado en el alfabeto latino, tal como
se usa en inglés moderno. Fue creado en 1963 por el Comité
Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto
Estadounidense de Estándares Nacionales, o ANSI)
como una refundición o evolución de los conjuntos de códigos utilizados
entonces en telegrafía.
El código ASCII utiliza 7 bits para representar los
caracteres, aunque inicialmente empleaba un bit adicional (bit de paridad) que se usaba
para detectar errores en la transmisión. A menudo se llama incorrectamente
ASCII a otros códigos de
caracteres de 8 bits,
como el estándar ISO-8859-1
ASCII fue publicado como estándar por primera vez en 1967
y fue actualizado por última vez en 1986. En la actualidad define códigos para
32 caracteres no imprimibles, de los cuales la mayoría son caracteres de
control que tienen efecto sobre cómo se procesa el texto, más otros
95 caracteres imprimibles que les siguen en la numeración
Como otros códigos de formato de representación de
caracteres, el ASCII es un método para una correspondencia entre cadenas de
bits y una serie de símbolos (alfanuméricos y otros), permitiendo de esta forma
la comunicación entre dispositivos digitales así como su procesado y
almacenamiento.
ASCII es, en sentido estricto, un código de siete bits, lo que significa que
usa cadenas de bits representables con siete dígitos binarios (que van de 0 a
127 en base decimal) para representar información de caracteres. En el momento
en el que se introdujo el código ASCII muchas computadoras trabajaban con
grupos de ocho bits
El código de caracteres ASCII es el soporte de una
disciplina artística minoritaria, el arte ASCII, que consiste en la composición
de imágenes mediante caracteres imprimibles ASCII. El efecto resultante ha sido
comparado con el puntillismo, pues las imágenes producidas con esta técnica
generalmente se aprecian con más detalle al ser vistas adistancia. El arte
ASCII empezó siendo un arte experimental, pero pronto se popularizó como
recurso para representar imágenes en soportes incapaces de procesar gráficos,
como teletipos, terminales, correos electrónicos o algunas impresoras.
HARDWARE
HARDWARE
ENTRADA:
Introducen
información al ordenador.
•Teclado
•Ratón
•Escáner
•Micrófono
•Webcam
•Cámara
de fotos, vídeo
•Dispositivos
de juegos, game
pads,
joysticks.
SALIDA:
Reciben información del ordenador.
•Monitor
•Impresora
•Altavoces
Otros periféricos

No hay comentarios:
Publicar un comentario