Evolución de la informática 2.pdf

20
Sistemas Página 1 FUNDACION UNIVERSITARIA LOS LIBERTADORES PROGRAMA EDUCATIVO Ingeniería Mecánica MATERIA Sistemas Profesor Ing. Javier Daza Estudiante Jhordan David Sánchez García Grupo – 220 Semestre N° 1 10-Agosto – 2015 Bogotá D.C

Transcript of Evolución de la informática 2.pdf

Page 1: Evolución de la informática 2.pdf

Sistemas Página 1

FUNDACION UNIVERSITARIA LOS LIBERTADORES

PROGRAMA EDUCATIVO

Ingeniería Mecánica

MATERIA

Sistemas

Profesor

Ing. Javier Daza

Estudiante

Jhordan David Sánchez García

Grupo – 220 Semestre N° 1

10-Agosto – 2015

Bogotá D.C

Page 2: Evolución de la informática 2.pdf

Sistemas Página 2

INTRODUCCIÓN

En este espacio deseo explicar la evolución de un sistema el cual ha llegado tan lejos por

las necesidades del hombre en los diferente problemas que se han presentado, llegando

así a soluciones las cuales ellos no pensaban alcanzar o hasta desarrollar.

La informática y sus variables han sido de ayuda en el diario vivir de la humanidad, dando

soluciones y propósitos para el desarrollo de máquinas, herramientas y sistemas

computarizados agilizando los resultados de cálculos en experimentos químicos, físicos,

mecánicos he industriales.

Vamos a ver también los sistemas de lenguajes que utilizan este sistema, su composición

y desarrollo, ya que son maneras de comunicación y de mando frente a un ordenador,

para lograr la construcción de nuevos programas y la capacidad de almacenamiento de

estos mismos.

El avance tecnológico a llegado con el fin de de implementar sistemas computarizados

para diferentes campos industriales, pero al gusto de la rapidez he innovación, estos

programas día a día van siendo trabajados en las áreas de automatización y avance

tecnológico.

Page 3: Evolución de la informática 2.pdf

Sistemas Página 3

Evolución de la informática.

A lo largo de la historia, en los tiempos donde no existía la electricidad, el hombre siempre

ha buscado la manera de simplificar su modo de vida, es por eso que las grandes mentes

de todos los tiempos, han desarrollado teoremas matemáticos para construir elementos o

maquinas que simplifiquen las actividades de la vida diaria.

El abanico fue la primera herramienta la cual ayudaba en los cálculos matemáticos simples

como lo era la suma y resta.

En la época de la Revolución Francesa es el inicio de todas estas ideas con aparición de la

máquina de tejer, y muchas maquinarias más.

El hombre al verse limitado al desarrollar cálculos matemáticos grandes, ya que constaban

de bastantes años, comienza con la construcción de las computadoras, ya que con ellas se

les facilitaba las tareas matemáticas brindándoles rapidez y seguridad.

Al no ser suficiente para el hombres, ya que por naturaleza empieza a buscar más rapidez,

es cuando comienzan con la técnica de “miniaturización” en la cual la iban perfeccionando

cada día mas, con esta técnica se logra hacer procesadores más rápidos por circuitos más

pequeños de igual manera se logra obtener capacidad de almacenamiento muy grandes

en espacios físicamente pequeños. Hoy en día el avance de la computadora se encuentra

en su mejor momento.

BIT

El bit es la unidad mínima de información empleada en informática, en cualquier

dispositivo digital, o en la teoría de la información. Con él, podemos representar dos

valores cualesquiera, como verdadero o falso, abierto o cerrado.

Un bit es un dígito del sistema de numeración binario. Las unidades de almacenamiento

tienen por símbolo bit.

Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se

usan solo dos dígitos, el 0 y el 1. Un bit o dígito binario puede representar uno de esos dos

valores: 0 o 1.

BYTE

El término byte fue acuñado por Werner Buchholz en 1957 durante las primeras fases de

diseño del IBM 7030 Stretch. Originalmente fue definido en instrucciones de 4 bits,

permitiendo desde uno hasta dieciséis bits en un byte (el diseño de producción redujo

Page 4: Evolución de la informática 2.pdf

Sistemas Página 4

este hasta campos de 3 bits, permitiendo desde uno a ocho bits en un byte). Los equipos

típicos de E/S de este periodo utilizaban unidades de seis bits, pero tras la necesidad de

agregar letras minúsculas, así como una mayor cantidad de símbolos y signos de

puntuación, se tuvieron que idear otros modelos con mayor cantidad de bits. Un tamaño

fijo de byte de 8 bits se adoptó posteriormente y se promulgó como un estándar por el

IBM S/360.

El cambio de letra no solo redujo la posibilidad de confundirlo con bit, sino que también

era consistente con la afición de los primeros científicos en computación en crear palabras

y cambiar letras.14 Sin embargo, en los años 1960, en el Departamento de Educación de

IBM del Reino Unido se enseñaba que un bit era un Binary digIT y un byte era un BinarY

TuplE. Un byte también se conocía como "un byte de 8 bits", reforzando la noción de que

era una tupla de n bits y que se permitían otros tamaños.

Es una secuencia contigua de bits en un flujo de datos serie, como en comunicaciones por

módem o satélite, o desde un cabezal de disco duro, que es la unidad de datos más

pequeña con significado. Estos bytes pueden incluir bits de inicio, parada o paridad y

podrían variar de 7 a 12 bits para contener un código ASCII de 7 bits sencillo.

Es un tipo de datos o un sinónimo en ciertos lenguajes de programación. C, por ejemplo,

define byte como "unidad de datos de almacenamiento direccionable lo suficientemente

grande para albergar cualquier miembro del juego de caracteres básico del entorno de

ejecución" (cláusula 3.6 del C estándar). En C el tipo de datos unsigned char tiene que al

menos ser capaz de representar 256 valores distintos (cláusula 5.2.4.2.1). La primitiva de

Java byte está siempre definida con 8 bits siendo un tipo de datos con signo, tomando

valores entre –128 y 127.

Page 5: Evolución de la informática 2.pdf

Sistemas Página 5

BASE DE DATOS

Se le llama base de datos a los bancos de información que contienen datos relativos a

diversas temáticas y categorizados de distinta manera, pero que comparten entre sí algún

tipo de vínculo o relación que busca ordenarlos y clasificarlos en conjunto.

Una base de datos o banco de datos es un conjunto de datos pertenecientes a un mismo

contexto y almacenados sistemáticamente para su posterior uso.. Actualmente, y debido

al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las

bases de datos están en formato digital, siendo este un componente electrónico, y por

ende se ha desarrollado y se ofrece un amplio rango de soluciones al problema del

almacenamiento de datos.

Existen programas denominados sistemas gestores de bases de datos, abreviado DBMS,

que permiten almacenar y posteriormente acceder a los datos de forma rápida y

estructurada. Las propiedades de estos DBMS, así como su utilización y administración, se

estudian dentro del ámbito de la informática.

Las aplicaciones más usuales son para la gestión de empresas e instituciones públicas;

También son ampliamente utilizadas en entornos científicos con el objeto de almacenar la

información experimental.

DATA WAREHOUSING

En el contexto de la informática, un almacén de datos es una colección de datos orientada

a un determinado ámbito (empresa, organización, etc.), integrado, no volátil y variable en

el tiempo, que ayuda a la toma de decisiones en la entidad en la que se utiliza. Se trata,

sobre todo, de un expediente completo de una organización, más allá de la información

transaccional y operacional, almacenada en una base de datos diseñada para favorecer el

análisis y la divulgación eficiente de datos. El almacenamiento de los datos no debe usarse

con datos de uso actual. Los almacenes de datos contienen a menudo grandes cantidades

de información que se subdividen a veces en unidades lógicas más pequeñas dependiendo

del subsistema de la entidad del que procedan o para el que sea necesario.

Los medios para obtener esos datos, para extraerlos, transformarlos y cargarlos, las

técnicas para analizarlos y generar información, así como las diferentes formas para

realizar la gestión de datos son componentes esenciales de un almacén de datos. Muchas

referencias a un almacén de datos utilizan esta definición más amplia. Por lo tanto, en

esta definición se incluyen herramientas para extraer, transformar y cargar datos,

Page 6: Evolución de la informática 2.pdf

Sistemas Página 6

herramientas para el análisis (inteligencia empresarial) y herramientas para gestionar y

recuperar los metadatos.

En un almacén de datos lo que se quiere es contener datos que son necesarios o útiles

para una organización, es decir, que se utiliza como un repositorio de datos para

posteriormente transformarlos en información útil para el usuario. Un almacén de datos

debe entregar la información correcta a la gente indicada en el momento óptimo y en el

formato adecuado. El almacén de datos da respuesta a las necesidades de usuarios

expertos, utilizando Sistemas de Soporte a Decisiones (DSS), Sistemas de información

ejecutiva (EIS) o herramientas para hacer consultas o informes. Los usuarios finales

pueden hacer fácilmente consultas sobre sus almacenes de datos sin tocar o afectar la

operación del sistema.

En el funcionamiento de un almacén de datos son muy importantes las siguientes ideas:

Integración de los datos provenientes de bases de datos distribuidas por las diferentes

unidades de la organización y que con frecuencia tendrán diferentes estructuras

(fuentes heterogéneas). Se debe facilitar una descripción global y un análisis

comprensivo de toda la organización en el almacén de datos.

Separación de los datos usados en operaciones diarias de los datos usados en el

almacén de datos para los propósitos de divulgación, de ayuda en la toma de

decisiones, para el análisis y para operaciones de control. Ambos tipos de datos no

deben coincidir en la misma base de datos, ya que obedecen a objetivos muy distintos

y podrían entorpecerse entre sí.

Periódicamente, se importan datos al almacén de datos de los distintos sistemas de

planeamiento de recursos de la entidad (ERP) y de otros sistemas de software

relacionados con el negocio para la transformación posterior. Es práctica común

normalizar los datos antes de combinarlos en el almacén de datos mediante herramientas

de extracción, transformación y carga (ETL). Estas herramientas leen los datos primarios (a

menudo bases de datos OLTP de un negocio), realizan el proceso de transformación al

almacén de datos (filtración, adaptación, cambios de formato, etc.) y escriben en el

almacén.

Page 7: Evolución de la informática 2.pdf

Sistemas Página 7

DATA MINNING

La minería de datos o exploración de datos es un campo de las ciencias de la

computación referido al proceso que intenta descubrir patrones en grandes volúmenes de

conjuntos de datos.1 Utiliza los métodos de la inteligencia artificial, aprendizaje

automático, estadística y sistemas de bases de datos. El objetivo general del proceso de

minería de datos consiste en extraer información de un conjunto de datos y transformarla

en una estructura comprensible para su uso posterior. Además de la etapa de análisis en

bruto, que involucra aspectos de bases de datos y de gestión de datos, de procesamiento

de datos, del modelo y de las consideraciones de inferencia, de métricas de Intereses, de

consideraciones de la Teoría de la complejidad computacional, de post-procesamiento de

las estructuras descubiertas, de la visualización y de la actualización en línea.

El término es una palabra de moda, y es frecuentemente mal utilizado para referirse a

cualquier forma de datos a gran escala o procesamiento de la información (recolección,

extracción, almacenamiento, análisis y estadísticas), pero también se ha generalizado a

cualquier tipo de sistema de apoyo informático decisión, incluyendo la inteligencia

artificial, aprendizaje automático y la inteligencia empresarial. En el uso de la palabra, el

término clave es el descubrimiento, comúnmente se define como "la detección de algo

nuevo". Incluso el popular libro "La minería de datos: sistema de prácticas herramientas

de aprendizaje y técnicas con Java" (que cubre todo el material de aprendizaje

automático) originalmente iba a ser llamado simplemente "la máquina de aprendizaje

práctico", y el término "minería de datos" se añadió por razones de marketing. A menudo,

los términos más generales "(gran escala) el análisis de datos", o "análisis" -. o cuando se

refiere a los métodos actuales, la inteligencia artificial y aprendizaje automático, son más

apropiados.

La tarea de minería de datos real es el análisis automático o semi-automático de grandes

cantidades de datos para extraer patrones interesantes hasta ahora desconocidos, como

los grupos de registros de datos (análisis clúster), registros poco usuales (la detección de

anomalías) y dependencias (minería por reglas de asociación). Esto generalmente implica

el uso de técnicas de bases de datos como los índices espaciales. Estos patrones pueden

entonces ser vistos como una especie de resumen de los datos de entrada, y pueden ser

utilizados en el análisis adicional o, por ejemplo, en la máquina de aprendizaje y análisis

predictivo. Por ejemplo, el paso de minería de datos podría identificar varios grupos en los

datos, que luego pueden ser utilizados para obtener resultados más precisos de

predicción por un sistema de soporte de decisiones. Ni la recolección de datos,

preparación de datos, ni la interpretación de los resultados y la información son parte de

la etapa de minería de datos, pero que pertenecen a todo el proceso KDD como pasos

adicionales.

Page 8: Evolución de la informática 2.pdf

Sistemas Página 8

Los términos relacionados con la obtención de datos, la pesca de datos y espionaje de los

datos se refieren a la utilización de métodos de minería de datos a las partes de la

muestra de un conjunto de datos de población más grandes establecidas que son (o

pueden ser) demasiado pequeñas para las inferencias estadísticas fiables que se hizo

acerca de la validez de cualquier patrón descubierto. Estos métodos pueden, sin embargo,

ser utilizados en la creación de nuevas hipótesis que se prueban contra poblaciones de

datos más grandes.

BIG DATA

El Big Data o Datos Masivos se refieren a sistemas informáticos basados en la acumulación

a gran escala de datos y de los procedimientos usados para identificar patrones

recurrentes dentro de esos datos. La disciplina dedicada a los datos masivos se enmarca

en el sector de las tecnologías de la información y la comunicación. Esta disciplina se

ocupa de todas las actividades relacionadas con los sistemas que manipulan

grandes conjuntos de datos. Las dificultades más habituales vinculadas a la gestión de

estas cantidades de datos se centran en la captura, el almacenamiento, búsqueda,

compartición, análisis, y visualización. La tendencia a manipular ingentes cantidades de

datos se debe a la necesidad en muchos casos de incluir los datos relacionados del análisis

en un gran conjunto de datos, como los análisis de negocio, publicitarios, los datos de

enfermedades infecciosas, el espionaje y seguimiento a la población o la lucha contra el

crimen organizado.

El límite superior de procesamiento se ha ido desplazando a lo largo de los años. De esta

forma, los límites fijados en 2008 rondaban el orden de petabytes a zettabytes de datos.

Los científicos con cierta regularidad encuentran limitaciones debido a la gran cantidad de

datos en ciertas áreas, tales como la meteorología, la genómica, la conectómica, las

complejas simulaciones de procesos físicos y las investigaciones relacionadas con los

procesos biológicos y ambientales, Las limitaciones también afectan a los motores de

búsqueda en internet, a los sistemas finanzas y a la informática de negocios. Los data

sets crecen en volumen debido en parte a la introducción de información ubicua

procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo

las VANETs), del constante crecimiento de los históricos de aplicaciones (por ejemplo de

los logs), cámaras (sistemas de teledetección), micrófonos, lectores de radio-frequency

identification. La capacidad tecnológica per-cápita a nivel mundial para almacenar datos

se dobla aproximadamente cada cuarenta meses desde los años ochenta. Se estima que

en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de datos (del

inglés quintillion, 2.5×1018).

Page 9: Evolución de la informática 2.pdf

Sistemas Página 9

CÓDIGO

“En la Teoría de la información, es la forma que toma la información que se intercambia

entre la Fuente (el emisor) y el Destino (el receptor) de un lazo informático. Implica la

comprensión o decodificación del paquete de información que se transfiere.

• El código fundamental en el que se basan los ordenadores es el código binario, el más

simple pues solo consta de dos elementos (0) y (1) que combinados de distintas maneras

como impulsos eléctricos ponen las bases para la informática.”

Código Binario

El código binario es el sistema numérico usado para la representación de textos, o

procesadores de instrucciones de computadora utilizando el sistema binario (sistema

numérico de dos dígitos, o bit: el "0" (cerrado) y el "1" (abierto)).

En informática y telecomunicaciones, el código binario se utiliza con varios métodos de

codificación de datos, tales como cadenas de caracteres, o cadenas de bits. Estos métodos

pueden ser de ancho fijo o ancho variable. Por ejemplo en el caso de un CD, las señales

que reflejarán el "láser" que rebotará en el CD y será recepcionado por un sensor de

distinta forma indicando así, si es un cero o un uno.

En un código binario de ancho fijo, cada letra, dígito, u otros símbolos, están

representados por una cadena de bits de la misma longitud, como un número binario que,

por lo general, aparece en las tablas en notación octal, decimal o hexadecimal.

Es frecuente también ver la palabra bit referida bien a la ausencia de señal, expresada con

el dígito "0", o bien referida a la existencia de la misma, expresada con el dígito "1". El

byte es un grupo de 8 bits, es decir en él tenemos 256 posibles estados binarios.

Ponderación

La mayoría de los sistemas de numeración actuales son ponderados es decir, cada

posición de una secuencia de dígitos tiene asociado un peso. El sistema binario es, de

hecho, un sistema de numeración posicional ponderado. Sin embargo, algunos códigos

binarios, como el código Gray no son ponderados es decir, no tienen un peso asociado a

cada posición. Otros, como el mismo código binario natural o el BCD natural sí lo son.

Distancia

La distancia es una característica sólo aplicable a las combinaciones binarias. La distancia

entre dos combinaciones es el número de bits que cambian de una a otra. Por ejemplo: si

se tienen las combinaciones de cuatro bits 0010 y 0111 correspondientes al 2 y al 7 en

binario natural, se dirá que la distancia entre ellas es igual a dos ya que de una a otra

cambian dos bits.

Page 10: Evolución de la informática 2.pdf

Sistemas Página 10

Además, con el concepto de distancia se puede definir la distancia mínima de un código.

Ésta no es más que la distancia menor que haya entre dos de las combinaciones de ese

código.

La distancia es una característica que, además, sólo se aplica a las combinaciones binarias.

En resumen, la distancia entre dos combinaciones es el número de bits que cambian de

una a otra.

Continuidad

La continuidad es una característica de los códigos binarios que cumplen todas las posibles

combinaciones del código que son adyacentes, es decir, que de cualquier combinación del

código a la siguiente cambia un sólo bit. En este caso se dice que el código es continuo.

Cuando la última combinación del código es, a su vez, adyacente a la primera, se trata de

un código cíclico.

Auto complementariedad

Se dice que un código binario es autocomplementario cuando el complemento a 9 del

equivalente decimal de cualquier combinación del código puede hallarse invirtiendo los

valores de cada uno de los bits (operación lógica unaria de negación) y el resultado sigue

siendo una combinación válida en ese código. Esta característica se observa en algunos

códigos BCD, como el código Aiken o el código BCD exceso 3. Los códigos

autocomplementarios facilitan las operaciones aritméticas.

Código Octal

El sistema numérico en base 8 se llama octal y utiliza los dígitos del 0 al 7.

En informática a veces se utiliza la numeración octal en vez de la hexadecimal. Tiene la

ventaja de que no requiere utilizar otros símbolos diferentes de los dígitos. Sin embargo,

para trabajar con bytes o conjuntos de ellos, asumiendo que un byte es una palabra de

8 bits, suele ser más cómodo el sistema hexadecimal, por cuanto todo byte así definido es

completamente representable por dos dígitos hexadecimales.

Métodos de conversión

Decimal

Para convertir un número en base decimal a base octal se divide dicho número entre 8,

dejando el residuo y dividiendo el cociente sucesivamente por 8 hasta obtener residuo 0,

luego los restos de las divisiones leídos en orden inverso indican el número en octal.

Para pasar de base 8 a base decimal, solo hay que multiplicar cada cifra por 8 elevado a la

posición de la cifra, y sumar el resultado.

Binario

Page 11: Evolución de la informática 2.pdf

Sistemas Página 11

Es más fácil pasar de binario a octal, porque solo hay que agrupar de 3 en 3 los dígitos

binarios, así, el número 74 (en decimal) es 1001010 (en binario), lo agruparíamos como 1 /

001 / 010, después obtenemos el número en decimal de cada uno de los números en

binario obtenidos: 1=1, 001=1 y 010=2. De modo que el número decimal 74 en octal es

112.

Fracciones

La numeración octal es tan buena como la binaria y la hexadecimal para operar con

fracciones, puesto que el único factor primo para sus bases es 2. Todas las fracciones que

tengan un denominador distinto de una potencia de 2 tendrán un desarrollo octal

periódico.

Código Hexadecimal

Page 12: Evolución de la informática 2.pdf

Sistemas Página 12

Tabla de multiplicar hexadecimal.

El sistema hexadecimal (a veces abreviado como Hex, no confundir con sistema sexagesimal) es el sistema de numeración posicional que tiene como base el 16. Su uso actual está muy

vinculado a la informática y ciencias de la computación, pues lo ccomputadores suelen utilizar

el byte u octeto como unidad básica de memoria; y, debido a que un byte

representa valores posibles, y esto puede representarse

como , que equivale al

número en base 16 , dos dígitos hexadecimales corresponden exactamente a un byte.

En principio, dado que el sistema usual de numeración es de base decimal y, por ello, sólo se dispone de diez dígitos, se adoptó la convención de usar las seis primeras letras del alfabeto latino para suplir los dígitos que nos faltan. El conjunto de símbolos sería, por tanto, el siguiente:

Se debe notar que A = 10, B = 11, C = 12, D = 13, E = 14 y F = 15. En ocasiones se emplean letras minúsculas en lugar de mayúsculas. Como en cualquier sistema de numeración posicional, el valor numérico de cada dígito es alterado dependiendo de su posición en la cadena de dígitos, quedando multiplicado por una cierta potencia de la base del sistema, que en este caso es 16. Por ejemplo: 3E0A16 = 3×16

3 + E×16

2 + 0×16

1 + A×16

0 = 3×4096 +

14×256 + 0×16 + 10×1 = 15882.

El sistema hexadecimal actual fue introducido en el ámbito de la computación por primera vez por IBM en 1963. Una representación anterior, con 0–9 y u–z, fue usada en 1956por la computadora Bendix G-15.

Tabla de conversión entre decimal, binario, octal y hexadecimal

0hex = 0dec = 0oct

0 0 0 0

1hex = 1dec = 1oct

0 0 0 1

2hex = 2dec = 2oct

0 0 1 0

3hex = 3dec = 3oct

0 0 1 1

4hex = 4dec = 4oct

0 1 0 0

5hex = 5dec = 5oct

0 1 0 1

6hex = 6dec = 6oct

0 1 1 0

7hex = 7dec = 7oct

0 1 1 1

8hex = 8dec = 10oct

1 0 0 0

9hex = 9dec = 11oct

1 0 0 1

Ahex = 10dec = 12oct

1 0 1 0

Page 13: Evolución de la informática 2.pdf

Sistemas Página 13

Fracciones

Como el único factor primo de 16 es 2, todas las fracciones que no tengan una potencia de 2

en el denominador, tendrán un desarrollo hexadecimal periódico.

Fracción Hexadecimal Resultado en hexadecimal

1/2 1/2 0,8

1/3 1/3 0,5 periodo

1/4 1/4 0,4

1/6 1/6 0,2A periodo

1/7 1/7 0,249 periodo

1/8 1/8 0,2

1/9 1/9 0,1C7 periodo

1/10 1/A 0,19 periodo

Bhex = 11dec = 13oct

1 0 1 1

Chex = 12dec = 14oct

1 1 0 0

Dhex = 13dec = 15oct

1 1 0 1

Ehex = 14dec = 16oct

1 1 1 0

Fhex = 15dec = 17oct

1 1 1 1

Page 14: Evolución de la informática 2.pdf

Sistemas Página 14

1/11 1/B 0,1745D periodo

1/12 1/C 0,15 periodo

1/13 1/D 0,13B periodo

1/14 1/E 0,1249 periodo

1/15 1/F 0,1 periodo

1/16 1/10 0,1

Existe un sistema para convertir números fraccionarios a hexadecimal de una forma más

mecánica. Se trata de convertir la parte entera con el procedimiento habitual y convertir la

parte decimal aplicando sucesivas multiplicaciones por 16 hasta convertir el resultado en un

número entero.

Por ejemplo: 0,06640625 en base decimal.

Multiplicado por 16: 1,0625, el primer decimal será 1. Volvemos a multiplicar por 16 la parte

decimal del anterior resultado: 1. Por lo tanto el siguiente decimal será un1.Resultado: 0,11 en

base hexadecimal. Como el último resultado se trata de un entero, hemos acabado la

conversión.

Hay ocasiones en las que no llegamos nunca a obtener un número entero, en ese caso

tendremos un desarrollo hexadecimal periódico.

Operaciones en Sistema Hexadecimal

En el sistema hexadecimal, al igual que en el sistema decimal, binario y octal, se pueden

hacer diversas operaciones matemáticas. Entre ellas se encuentra la resta entre dos números

en sistema hexadecimal, la que se puede hacer con el método de complemento a 15 o

también utilizando el complemento a 16. Además de éstas, debemos manejar adecuadamente

la suma en sistema hexadecimal, explicada a continuación:

Page 15: Evolución de la informática 2.pdf

Sistemas Página 15

Hexadecimal Decimal

A 10

B 11

C 12

D 13

E 14

F 15

Código BCD

En sistemas de computación, Binary-Coded Decimal (BCD) o Decimal codificado en binario es

un estándar para representar números decimales en el sistema binario, en donde cada dígito

decimal es codificado con una secuencia de 4 bits. Con esta codificación especial de los

dígitos decimales en el sistema binario, se pueden realizar operaciones aritméticas como

suma, resta, multiplicación y división de números en representación decimal, sin perder en los

cálculos la precisión ni tener las inexactitudes en que normalmente se incurre con las

conversiones de decimal a binario puro y de binario puro a decimal. La conversión de los

números decimales a BCD y viceversa es muy sencilla, pero los cálculos en BCD se llevan

más tiempo y son algo más complicados que con números binarios puros.

Representación BCD

Cada dígito decimal tiene una representación binaria codificada con 4 bits:

Decimal: 0 1 2 3 4 5 6 7 8 9

BCD: 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001

Los números decimales, se codifican en BCD con los bits que representan sus dígitos.

Page 16: Evolución de la informática 2.pdf

Sistemas Página 16

Por ejemplo, la codificación en BCD del número decimal 59237 es:

Decimal: 5 9 2 3 7

BCD: 0101 1001 0010 0011 0111

La representación anterior (en BCD) es diferente de la representación del mismo número

decimal en binario puro:

1110011101100101

Fundamentos

En BCD cada cifra que representa un dígito decimal (0, 1,...8 y 9) se representa con su

equivalente binario en cuatro bits (nibble o cuarteto) (esto es así porque es el número de bits

necesario para representar el nueve, el número más alto que se puede representar en BCD).

En la siguiente tabla se muestran los códigos BCD más empleados:

Decimal Natural Aiken 5 4 2 1 Exceso 3

0 0000 0000 0000 0011

1 0001 0001 0001 0100

2 0010 0010 0010 0101

3 0011 0011 0011 0110

4 0100 0100 0100 0111

5 0101 1011 1000 1000

6 0110 1100 1001 1001

Page 17: Evolución de la informática 2.pdf

Sistemas Página 17

7 0111 1101 1010 1010

8 1000 1110 1011 1011

9 1001 1111 1100 1100

Como se observa, con el BCD sólo se utilizan 10 de las 16 posibles combinaciones que se

pueden formar con números de 4 bits, por lo que el sistema pierde capacidad de

representación, aunque se facilita la compresión de los números. Esto es porque el BCD sólo

se usa para representar cifras, no números en su totalidad. Esto quiere decir quepara números

de más de una cifra hacen falta dos números BCD.

Una forma sencilla de calcular números en BCD es sumando normalmente bit a bit, y si el

conjunto de 4 bits sobrepasa el número 9, entonces se le suma un 6 (0110) en binario,

para poder volver a empezar, como si hiciéramos un módulo al elemento sumante.

Desde que los sistemas informáticos empezaron a almacenar los datos en conjuntos de

ocho bits (octeto), hay dos maneras comunes de almacenar los datos BCD:

Omisión de los cuatro bits más significativos (como sucede en el EBCDIC)

Almacenamiento de dos datos BCD; es el denominado BCD "empaquetado", en el

que también se incluye en primer lugar el signo, por lo general con 1100 para el +

y 1101 para el -.

De este modo, el número 127 sería representado como (11110001, 11110010, 11110111)

en el EBCDIC o (00010010, 01111100) en el BCD empaquetado.

El BCD sigue siendo ampliamente utilizado para almacenar datos, en aritmética binaria o

en electrónica. Los números se pueden mostrar fácilmente en visualizadores de siete

segmentos enviando cada cuarteto BCD a un visualizador. La BIOS de un ordenador

personal almacena generalmente la fecha y la hora en formato BCD; probablemente por

razones históricas se evitó la necesidad de su conversión en ASCII.

La ventaja del código BCD frente a la representación binaria clásica es que no hay límite

para el tamaño de un número. Los números que se representan en formato binario están

generalmente limitados por el número mayor que se pueda representar con 8, 16, 32 o 64

bits. Por el contrario, utilizando BCD, añadir un nuevo dígito sólo implica añadir una nueva

secuencia de 4 bits.

Page 18: Evolución de la informática 2.pdf

Sistemas Página 18

LENGUAJE DE UN PROGRAMA

Un lenguaje de programación es un lenguaje formal diseñado para expresar procesos que

pueden ser llevados a cabo por máquinas como las computadoras.

Pueden usarse para crear programas que controlen el comportamiento físico y lógico de

una máquina, para expresar algoritmos con precisión, o como modo de comunicación

humana. Está formado por un conjunto de símbolos y reglas sintácticas y semánticas que

definen su estructura y el significado de sus elementos y expresiones.

Los siguientes pasos expresan la manera de la creación programas en un ordenador

mediante la aplicación de procesos lógicos.

El desarrollo lógico del programa para resolver un problema en particular.

Escritura de la lógica del programa empleando un lenguaje de programación

específico (codificación del programa).

Ensamblaje o compilación del programa hasta convertirlo en lenguaje de máquina.

Prueba y depuración del programa.

Desarrollo de la documentación.

Existe un error común que trata por sinónimos los términos 'lenguaje de programación' y

'lenguaje informático'. Los lenguajes informáticos engloban a los lenguajes de

programación y a otros más, como por ejemplo HTML.

Este lenguaje muestra la manera precisa de como operar una computadora, como los

datos deben ser almacenados o transmitidos bajo una variada gama de circunstancias.

Más que un lenguaje es un proceso para poder expresar de que un programador pueda

usar un conjunto común de instrucciones en la construcción de un programa de forma

colaborativa.

Para que la computadora entienda nuestras instrucciones debe usarse un lenguaje

específico conocido como código máquina, el cual la máquina comprende fácilmente,

pero que lo hace excesivamente complicado para las personas. De hecho sólo consiste

en cadenas extensas de números 0 y 1.

Para facilitar las cosas los operarios d este lenguaje tomaron la decisión de cambiar esos

números ( 0 y 1) por palabras y letras provenientes del ingles; este se conoce con el nombre

de ensamblador.

Page 19: Evolución de la informática 2.pdf

Sistemas Página 19

Lenguaje de bajo nivel:

Son lenguajes totalmente dependientes de la máquina, es decir que el programa que se realiza con este tipo de lenguajes no se pueden migrar o utilizar en otras máquinas. Al estar prácticamente diseñados a medida del hardware, aprovechan al máximo las características del mismo. Dentro de este grupo se encuentra:

El lenguaje maquina: este lenguaje ordena a la máquina las operaciones fundamentales

para su funcionamiento. Consiste en la combinación de 0's y 1's para formar las ordenes

entendibles por el hardware de la máquina.

Este lenguaje es mucho más rápido que los lenguajes de alto nivel.

La desventaja es que son bastantes difíciles de manejar y usar, además de tener

códigos fuente enormes donde encontrar un fallo es casi imposible.

El lenguaje ensamblador es un derivado del lenguaje máquina y está formado por

abreviaturas de letras y números llamadas mnemotécnicos. Con la aparición de este

lenguaje se crearon los programas traductores para poder pasar los programas escritos

en lenguaje ensamblador a lenguaje máquina. Como ventaja con respecto al código

máquina es que los códigos fuentes eran más cortos y los programas creados ocupaban

menos memoria. Las desventajas de este lenguaje siguen siendo prácticamente las

mismas que las del lenguaje ensamblador, añadiendo la dificultad de tener que

aprender un nuevo lenguaje difícil de probar y mantener.

Lenguaje de alto nivel:

Son aquellos que se encuentran más cercanos al lenguaje natural que al lenguaje máquina. Se tratan de lenguajes independientes de la arquitectura del ordenador. Por lo que, en principio, un programa escrito en un lenguaje de alto nivel, lo puedes migrar de una máquina a otra sin ningún tipo de problema. Estos lenguajes permiten al programador olvidarse por completo del funcionamiento interno de la maquina/s para la que están diseñando el programa. Tan solo necesitan un traductor que entiendan el código fuente como las características de la máquina. Suelen usar tipos de datos para la programación y hay lenguajes de propósito general (cualquier tipo de aplicación) y de propósito específico (como FORTRAN para trabajos científicos).

Page 20: Evolución de la informática 2.pdf

Sistemas Página 20

Lenguajes de medio nivel:

Este lenguaje se encuentra en un pronto medio entre los dos anteriores. Dentro d este lenguaje puede accederse los registros de sistemas, trabajar con direcciones de memorias, todas ellas características de lenguajes de bajo nivel y a la vez realizar operaciones de alto nivel. Generaciones:

La evolución de los lenguajes de programación se puede dividir en 5 etapas o generaciones.

Primera generación: lenguaje maquina.

Segunda generación: se crearon los primeros lenguajes ensambladores.

Tercera generación: se crean los primeros lenguajes de alto nivel. Ej. C, Pascal, Cobol…

Cuarta generación. Son los lenguajes capaces de generar código por si solos, son los

llamados RAD, con lo cuales se pueden realizar aplicaciones sin ser un experto en el

lenguaje. Aquí también se encuentran los lenguajes orientados a objetos, haciendo

posible la reutilización d partes del código para otros programas. Ej. Visual, Natural

Adobes…

Quinta generación: aquí se encuentran los lenguajes orientados a la inteligencia

artificial. Estos lenguajes todavía están poco desarrollados. Ej. LISP