¿ Cuantos caracteres caben en un MB ?
En un megabyte se podrían almacenar 1,048,576 caracteres1048576 caracteres....1 Byte equivale a 8 bits, y eso es lo q ocupa 1 caracter.Los múltiplos del Byte son el KByte (kilobyte) = 1024 Bytesy el MByte (megabyte) = 1024 KB = 1048576 Bytes.No es lo mismo q con las demás medidas donde 1K=1000 ya q 1000 no es potencia exacta de 2 y sí lo es 1024
Originalmente un caracter se almacenaba en lo que se conoce como un Byte, el cual es el conjunto de 8 bits, cada caracter tenía un número asociado que se representaba en base 2 (unos y ceros); como eran 8 bits (8 espacios) podíamos tener hasta 256 caractéres. Actualmente en un Byte se manejan más de 8 bits y por eso tenemos más de 256 caracteres. Un KB o KiloByte equivale a 1024 Bytes, es decir, 1024 caracteres; y un MB o MegaByte equivale a 1024 KB, es decir, 1024 x 1024 Bytes = 1,048,576 Bytes o caracteres. El 1024 se debe a que el 1000 no es múltiplo de 8, que era el espacio origial, de hecho se manejan múltiplos de 8, así tenemos Bytes de 16, 24 y 32 bits.Un MB corresponde a 1.024.000 bytes. Un BYTE equivale a 8 bits. Cada caracter equivale a un bit por consiguiente en un MB podras tener 1.024.000 caracteres.
Byte
Para la revista estadounidense de informática, véase Byte es una voz inglesa (pronunciada [bait] o ['bi.te]), que si bien la Real Academia Española ha aceptado como equivalente a octeto, es decir a ocho bits, para fines correctos, un byte debe ser considerado como una secuencia de bits contiguos, cuyo tamaño depende del código de información o código de caracteres en que sea definido. La unidad byte no tiene símbolo establecido internacionalmente, aunque en países anglosajones es frecuente B mientras que en los francófonos es o (de octet); la ISO y la IEC en la norma 80000-13:2008 recomiendan restringir el empleo de esta unidad a los octetos (bytes de 8 bit).
Se usa comúnmente como unidad básica de almacenamiento de información en combinación con los prefijos de cantidad. Originalmente el byte fue elegido para ser un submúltiplo del tamaño de palabra de un ordenador, desde seis a nueve bits (un carácter codificado estaría adaptado a esta unidad). La popularidad de la arquitectura IBM S/360 que empezó en los años 1960 y la explosión de las microcomputadoras basadas en microprocesadores de 8 bits en los años 1980 ha hecho obsoleta la utilización de otra cantidad que no sean 8 bits. El término octeto se utiliza ampliamente como un sinónimo preciso donde la ambigüedad es indeseable (por ejemplo, en definiciones de protocolos).
Contenido[ocultar]
1 Escala general
2 Significados
3 Historia
4 Palabras alternativas
5 Abreviaturas/Símbolos
6 Nombres para diferentes unidades
7 Véase también
//
Escala general [editar]
En arquitectura de ordenadores, 8 bits es un adjetivo usado para describir enteros, direcciones de memoria u otras unidades de datos que comprenden hasta 8 bits de ancho, o para referirse a una arquitectura de CPU y ALU basadas en registros, bus de direcciones o bus de datos de ese ancho.
Nota: Excepto para elementos con fotos, los elementos se toman como colecciones de caracteres--letras, números y signos de puntuación--cada uno 1 byte. Un documento formateado ocupa mucho más espacio.
Tamaño
Capacidad de almacenamiento aproximada
1 B
Una letra
10 B
Una o dos palabras
100 B
Una o dos frases
1 kB
Una historia muy corta
10 kB
Una página de enciclopedia (tal vez con un dibujo simple)
100 kB
Una fotografía de resolución mediana
1 MB
Una novela
10 MB
Dos copias de la obra completa de Shakespeare
100 MB
1 metro de libros en estantería
1 GB
Una furgoneta llena de páginas con texto
1 TB
50.000 árboles de papel
10 TB
La colección impresa de la biblioteca del congreso de EE. UU.
Significados
La palabra "byte" tiene numerosos significados íntimamente relacionados:
Una secuencia contigua de un número de bits fijo. La utilización de un byte de 8 bit ha llegado a ser casi ubicua.
Una secuencia contigua de bits en una computadora binaria que comprende el sub-campo direccionable más pequeño del tamaño de palabra natural de la computadora. Esto es, la unidad de datos binarios más pequeña en que la computación es significativa, o se pueden aplicar las cotas de datos naturales. Por ejemplo, la serie CDC 6000 de mainframes científicas dividió sus palabras de 60 bits de punto flotante en 10 bytes de seis bits. Estos bytes convenientemente colocados forman los datos Hollerith de las tarjetas perforadas, típicamente el alfabeto de mayúsculas y los dígitos decimales. El CDC también refiere cantidades de 12 bits como bytes, cada una albergando dos caracteres de 6 bits, debido a la arquitectura de E/S de 12 bits de la máquina. El PDP-10 utilizaba instrucciones de ensamblado de 12 bits LDB y DPB para extraer bytes—estas operaciones sobreviven hoy en el Common Lisp. Los bytes de 6, 7 ó 9 bites se han utilizado en algunas computadoras, por ejemplo en las palabras de 36 bits del PDP-10. Los ordenadores del UNIVAC 1100/2200 series (ahora Unisysdireccionaban los campos de datos de 6 bits y en modo ASCII de 9 bits modes con su palabra de 36 bits.
Terabyte
Un Terabyte es una unidad de medida informática cuyo símbolo es el TB, y puede equivalerse a 240 bytes o a 1012 bytes.
Confirmado en 1960, viene del griego τέρας, que significa monstruo.
Debido a irregularidades en la definición y uso del kilobyte, el número exacto de bytes en un terabyte en la práctica, podría ser cualquiera de los siguientes valores:
12000.0001000.000 bytes - 1012, un billón. Esta definición es la que se usa en el contexto general cuando se refiere a almacenamiento en discos, redes u otro hardware.
12099.5111627.776 bytes - 10244 ó 240. Esto es 1024 veces un gigabyte (un gigabyte 'binario'). Esta es la definición más usada en las ciencias de la computación (computer science) y en programación (computer programming) y, la mayor parte del software, emplea también esta definición.
1024 terabytes equivalen a un petabyte
Diferencia entre 1000 y 1024 Terabyte [editar]
Para clarificar la diferencia entre los prefijos decimal y binario la Comisión Internacional de Electrotécnica (IEC), una corporación estándar, definió en 1998 nuevos prefijos usando la combinación del Sistema Internacional de Medidas prefijo SI con la palabra "binary" (vea prefijo binario), así que si nos referimos a binario, éste es nombrado por la IEC como tebibyte (TiB) mientras que si nos referimos a decimal entonces la IEC lo llama terabyte. Cabe decir que esta nomenclatura no ha sido aún ampliamente adoptada.
Gigabyte
Para otros usos de este término, véase Gigabyte Technology.
Un gigabyte es una unidad de medida informática cuyo símbolo es el GB, y puede equivalerse a 230 bytes o a 109 bytes, según el uso.
Como resultado de esta confusión, el término "gigabyte" resulta ambiguo, a no ser que se utilice un sólo dígito de precisión. Conforme aumenta la capacidad de almacenamiento y transmisión de los sistemas informáticos, se multiplica la diferencia entre los usos binario y decimal. El uso de la base binaria no obstante tiene ventajas durante el diseño de hardware y software. La RAM se mide casi siempre en potencias de dos.
Un Terabyte puede equivalerse a 1024 GB ó 1000 GB.
Contenido[ocultar]
1 El uso de gigabytes
2 Distinción entre 1000 megabytes y 1024 megabytes
3 Etimología del prefijo
4 Véase también
5 Enlaces externos
El uso de gigabytes [editar]
Desde 1996, la mayoría de disco duro se miden en el rango de capacidades de gigabytes. El coste por gigabyte es de 0,40-0,65 € ó 0,51-0,72 $.
En lenguaje coloquial, "gigabyte" se abrevia a menudo como giga, (por ejemplo: "Este disco es de 200 gigas").
El gigabit, que no debe ser confundido con el gigabyte, es 1/8 de un gigabyte, puesto que está referido a bits en lugar de a bytes, y se abrevia como Gb (o Gbit) (nótese la letra b minúscula). Se usa principalmente para describir el ancho de banda y la tasa de transmisión de un flujo de datos, (por ejemplo: la velocidad actual de los interfaces de fibra óptica es de 2 Gbit/s).
Megabyte
El Megabyte (MB) es una unidad de medida de cantidad de datos informáticos. Es un múltiplo del octeto, que equivale a 106 (1.000.000 octetos) o 220 (1.048.576 octetos), según el contexto. La primera definición es más acorde al prefijo mega-, mientras que la segunda es una cantidad más práctica desde el punto de vista informático. Para ésta es más acorde emplear el mebibyte. Como los dos números están relativamente cercanos, y confundir uno con otro ha llevado ocasionalmente a problemas.
Se representa por MB y no por Mb (que correspondería a megabit) y coloquialmente se les denomina Megas. Es la unidad más típica actualmente, usándose para especificar la capacidad de la memoria RAM, de las memorias de tarjetas gráficas, de los CD-ROM, o el tamaño de los programas, de los archivos grandes, etc. La capacidad de almacenimiento se mide habitualmente en gigabytes, es decir, en miles de megabytes.
Se distingue del megabit (1.000.000 bits), con abreviación de Mbit o Mb (la "b" minúscula). Hay 8 bits en un octeto; por lo tanto, un megabyte (MB) es ocho veces más grande que un megabit (Mb).
Kilobyte
Un kilobyte (pronunciado /kilobáit/) es una unidad de almacenamiento de información cuyo símbolo es el kB (a veces se utiliza KB), y puede equivaler a 210 bytes o a 103 bytes.
Las PC de IBM más antiguas, por ejemplo, tenían una capacidad máxima de 640 KB en el sentido binario, o alrededor de 640 000 caracteres de datos.
El Sistema Internacional y el término byte [editar]
El término kilobyte se utilizó al principio debido a que 210 es aproximadamente 1000 (exactamente es 1024). Cuando las computadoras empezaron a ser cada vez más potentes, lamentablemente el mal uso del prefijo SI se difundió desde la jerga de los profesionales de la computación al léxico popular, lo que creó mucha confusión, ya que realmente no se debería usar el término kilobyte, que significa exactamente ‘1000 bytes’ y no ‘1024 bytes’.
Se inventó[1] entonces el término kibi, que significaría 1024, produciendo entonces la medida kibibyte (1 KiB=1024 bytes). Pero todavía no se ha difundido su uso. Dentro de este mismo paquete de unidades estaría el mebibyte (1 MiB = 220, similar al megabyte: 106 o millón) y el gibibyte (1 GiB = 230, similar al gigabyte: 109)
Algunos han sugerido que se debería utilizar el prefijo K con mayúsculas para distinguir esta cantidad del prefijo del SI, pero este tema aún no se ha normalizado. Además esto no se podría extender a otros prefijos mayores, ya que por ejemplo en el caso del MB (megabyte), el SI ya utiliza tanto la M mayúscula (mega: millón) como la minúscula (mili: milésima).
Bit
Bit es el acrónimo de Binary digit. (dígito binario). Un bit es un dígito del sistema de numeración binario. La Real Academia Española (RAE) ha aceptado la palabra bit con el plural bits.
Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos valores, 0 ó 1.
Podemos imaginarnos un bit como una bombilla que puede estar en uno de los siguientes dos estados:
apagada o encendida
Memoria de computadora de 1980 donde se pueden ver los bits físicos. Este conjunto de unos 4x4 cm. corresponden a 512 bytes.
El bit es la unidad mínima de almacenamiento empleada en informática, en cualquier dispositivo digital, o en la teoría de la información. Con él, podemos representar dos valores cuales quiera, como verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al estado de "encendido" (1).
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario