Monografias.com > Computación > General
Descargar Imprimir Comentar Ver trabajos relacionados

Historia de la Computación




Enviado por adriancamacho



     

    • INTRODUCCION                                                                                                                       
    • A)
      UNA PEQUEÑA HISTORIA                                                                                                    
    • *LA
      PREHISTORIA
      DE LA ERA DE LA COMPUTADOCION                                                         
      8
    • A)EL
      HOMBRE
      PRIMITIVO Y SU CONTABILIDAD
      INDEPENDIENTE                                            
      8
    • B)LAS
      PRIMERAS MAQUINAS
      DE CACULAR                                                                            
      9
    • C)EL
      ABACO                                                                                                                               
      9
    • *SIGLO
      XIV A XIX EPOCA DE GRANDES INVENTOS                                                                
      10
    • A)JONH
      NAPIER (1550 – 1617) INVENTOR DE LOS LOGARITMOS                                          
      10
    • B)BLAISEL
      PASCAL
      (1623-1662) LA PASCALINA                                                                  
      11
    • C)GOTTFRIED
      WIHEIM LEIBNIG (1646-1716)INVENTOR DEL SISTEMA
      BINARIO                     
      12
    • D)LA
      CONDESA ADA BYRINO (1815-1851) LA PRIMERA PROGRAMADORA DE HISTORIA  
      14
    • F)JOSEPH
      MARIE JOCQUARD (1752-1834)LAS PLANTILLAS PERFORADAS                         
      14
    • *
      1939-1958 LA PRIMAERA GENERACION DE COMPUTACION                                                 
      17
    • A)JOHN
      LOUIS NEWMANN (1903-1957)                                                                         
                
      17
    • B)KONRAD
      ZUSE (1910-1957)EL PRIMER PROTOTIPO DE COMPUTADORA
      DIGITAL             
      18
    • C)ALAN
      M. TURING Y LA COLLOSUS                                                                           
                 
      20
    • D)LA
      MARK I DE IBM EN 1944                                                                                      
                    
      20
    • E)GRACE
      HOOPER (1906-1992) LA MARK I DE IBM EN 1944                                                    
      21
    • F)1946
      ENIAC ELECTRONIC NUMERICAL INTEGRATOR ANO COMPUTER                                 
      22
    • G)1951
      UNIVAC (UNIVERSIDAD
      AUTOMATIC COMPUTER) DE JONH MAUCHY Y I PREPER ECKERT 23
    • *1959-1964
      LAS SEGUNDA GENERACION DE LAS COMPUTADORAS                                       
      26
    • A)LOS
      TRANSITORES                                                                                                                  
      26
    • B)1958
      LOS CIRCUITOS
      INTEGRADOS                                                                         
                     
      27
    • 19641971
      LA TERCERA GENERACION DE COMPUTADORAS                                                   
         30
    • A)EN
      ABRIL DE 1964 IBM PRESENTO SU GENERACION DE COMPUTADORAS
      IBM 360              
      30
    • *
      1971-1981 LA CUATA GENERACION DE COMPUTADORAS                                                     
      32
    • A)1971
      EN MICROPROCESADOR
      INTRL 4004                                                               
                    
      32
    • B)LA
      KEN BAK I PRIMERA PC                                                                                     
                     
      32
    • C)1973
      LOS DISCOS WINCHISTER                                                                                           
         33
    • D)1974
      8080 EL PRIMER CPU
      DE INTEL                                                                                       
      33
    • E)1975
      LA ALFAN 8800 POR MICRO INTRUMENTATION TELEMETRY SYSTEMAS                   
      34
    • F)1975
      FUNDACION DE MICROSOLF                                                                                           
      34
    • G)1975
      CM/P, EL PRIMER SISTEMA
      OPERATIVO ESTANDAR                                                      
      35
    • H)HECHOS
      NOTABLES                                                                                                
                     
      36
    • I)1976
      LOS DOS ESTEVEN Y LA APPLE COMPUTER                                                                   
      36
    • J)1977
      LA TRS DE TANDY RADIO
      SHACK                                                                                 
      37
    • K)1978
      EL MICROPROCESADOR
      INTEL 8086                                                                               
      37
    • *LAS
      NOVEDADES DE 1996                                                                                                         
      41
    • A)CHORRO
      SERVICIAL                                                                                                                
      43
    • B)ABRAN
      PASO ALO VISUAL                                                                                                      
      43
    • C)ALMACENES
      GIGANTES                                                                                                          
      44
    • D)LOS
      TOPPNS ALEMANES                                                                                                        
      45
    • E)
      HAL EN PRIMER LUGAR                                                                                                          
      46
    • F)COMPUTADORA
      DE MALETA                                                                                                   
      47
    • G)NUEVAS
      ARQUITECTURA                                                                                                        
      49
    • H)NUEVO
      COMPUTADOR                                                                                                            
      50
    • I)MARS                                                                                                                                        
      50
    • J)MAQUINA
      NEURONAL                                                                                                               
      51   
    • K)COSAS
      QUE PIENSAN                                                                                                             
      52
    • *GLOSARIO                                                                                                                                 
      56
    • *CONCLUCIONES                                                                                                                        
      70
    • *BIBLIOGRAFIA                                                                                                                            
      71

    Historia de la Computación

    HISTORIA
    DE LA INFORMATICA

    INTRODUCCIÓN

    Las
    computadoras
    no han nacido en los últimos años, en realidad el
    hombre siempre buscó tener dispositivos que le ayudaran a efectuar cálculos
    precisos y rápidos; una breve reseña histórica nos permitirá, comprender cómo
    llegamos a las computadoras actuales.

    Los
    chinos hace más de 3000 años a. C. desarrollaron el ABACO, con éste realizaban
    cálculos rápidos y complejos. Éste instrumento tenia un marco de madera
    cables horizontales con bolas agujereadas que corrían de izquierda a derecha,
    como muestra
    la figura. En el siglo X'VII, el creciente interés, en Europa,
    por las nuevas ciencias,
    tales como la astronomía y la navegación, impulsó alas mentes creativas a simplificar
    los cálculos. Habría costado años a los primeros científicos calcular la vasta
    cantidad de datos
    numéricos cuyos patrones estaban intentando descubrir. En 1614, el escocés John
    Napier anunció su descubrimiento de los logaritmos, permitiendo que los resultados
    de complicadas multiplicaciones se redujeran a un proceso
    de simple suma. Muy poco después, en los años 20 del mismo siglo, se inventó
    la regla de cálculo, basada en los principios
    matemáticos descubiertos por Napier.

    PASCAL
    en 1642 crea una máquina mecánica de sumar, parecida a los cuenta kilómetros
    que utilizan en la actualidad los automóviles. Pero ésta tenia algunos problemas
    con las sumas largas; pero en 1671 LEIBNITZ le agregó la posibilidad de: restar,
    sumar, multiplicar y dividir. Su máquina estaba formada Sobre ruedas dentadas,
    cada una de estas ruedas tenía diez dientes, éstos correspondían a los números
    de 0 al 9. Siendo el sistema
    de tal tipo que el paso de 9 a 0 daba lugar a un salto de la rueda.

    Los
    conceptos de esta máquina se utilizaron mucho tiempo,
    pero éstas calculadoras exigían intervención del operador, ya que éste debía
    escribir cada resultado parcial en una hoja de papel.
    Esto era sumamente largo y por lo tanto produce a errores en los informes

    Otra
    evolución en esta historia
    fue la que realizó BABBAGE. éste diseño y desarrollo
    la primera computadora de uso general. Fue un genio pero la Época no lo ayudó
    para poder
    terminar de construirla. Llamo a su descubrimiento "Máquina de las diferencias".
    En 1833 concibió una segunda máquina que le Llevó 20 años. Esta era capaz de
    realizar una suma en segundos y necesitaba un mínimo tiempo
    de atención del operador. A esta segunda máquina la llamó "Analítica".
    Leibniz aplicó la lógica y la materializó en su exitosa maquina de calcular.

    En
    1804, Joseph Jacquard empezó a utilizar un telar que se servia de tarjetas
    perforadas para controlar la creación de complejos diseños textiles, (La misma
    técnica se utilizaría posteriormente en pianolas y organillos, que empleaban"
    Tarjetas
    perforadas para copiar música de piano, tanto clásica como popular.

    La
    primer operación de procesamiento
    de datos fue Lograda en 1890 por HERNAN HOLLERICH. Éste desarrolló un sistema
    mecánico para calcular y agrupar datos
    de censos. El nuevo sistema se basaba en tarjetas perforadas. Lo utilizaron
    en el censo de población en Estados
    Unidos en donde se logró por primera vez, que los resultados fueran conocidos
    a los dos años y medio, mientras que el censo anterior se tardó siete años para
    conocer estos datos.

    La
    primera mujer
    programadora fue ADA AUGUSTA BYRON (1815 – 1852) se interesó por los descubrimientos
    de BABBAGE a quién ayudó en los estudios de esta gran filosofía.

    En
    1930, el norteamericano Vannevar Bush diseñó en el MIT (Massachusetts Institute
    of Technology) el analizador diferencial, marcando el inicio de nuestra era
    de computadoras; el "analizador" era una máquina electrónica que media
    grados de cambio
    en un modelo.
    La maquina ocupaba la mayor parte de una gran sala, Para analizar un nuevo problema,un
    grupo
    de ingenieros debía cambiar las proporciones, y só1o aparecían, tras dos o tres
    días, con las manos cubiertas de aceite. Aun la capacidad de la máquina para.
    Resolver complicados cálculos sobrepasaba cualquier invento anterior.

    En
    1936, el científico independiente Alan Turing, de Gran Bretaña, captó la atención
    de los científicos con un trabajo que sobre un estudio sobre los números y las
    computadoras, propuso, soluciones
    a problemas
    hasta entonces no resueltos.' '';

    La
    primera computadora totalmente electrónica fue la ENIAC (Electric Numeric Integrator
    And Calculator), fue construida en 1943 y 1945 por JOHN MANCHI y J. PROPER ECKUT.
    Podía multiplicar 10.000 veces más rápido que la máquina de AIKEN, pero ten/a
    sus problemas. Como estaba construida con casi 18,000 válvulas era enorme la
    energía que consumía y el calor
    que producía. Esto hacia que las válvulas se quemaran rápidamente y que las
    casa de alrededor tuvieran cortes de luz.

    La
    Segunda
    Guerra Mundial vio a Alemania
    y a los otros países occidentales en competencia
    por desarrollar una mayor velocidad
    de cálculo, junto a un aumento de la capacidad de trabajo, para así lograr decodificar
    los mensajes enemigos. 'En respuesta a su presión 'EE.UU, desarrolló en Harvard
    el enorme computador
    Mark I, con una altura de 2,5 m, inspirado por las ideas de Babbage, y el Mark
    I se dedicó a problemas balísticos de la Marina. En Alemania,
    se estaba comprobando las aerodinámicas proyectadas en el computador
    .

    El
    primer intento de sobreponerse alas limitaciones de velocidad
    y errores fue de HOWARD AIKEN. Trabajó con ingenieros de I.B.M, crearon una
    calculadora automática Llamada MARK I (en 1944). Luego sé construyó MARK II.
    (Estas máquinas no pudieron satisfacer las necesidades de ese momento ya que
    eran millones los datos para guardar y resolver, aunque sirvieron de base para
    que cuando se crearan las válvulas al vacío comenzara la computación electrónica.

    Tres
    científicos de los laboratorios Bell, William Bardeen y Walter Bratt, inventaron
    el transistor,
    recibiendo el premio novel de Física en 1956.

    A
    continuación se desarrolló el circuito integrado o "IC" que pronto
    recibiría el sobrenombre de "chip". Se atribuye el mérito de este
    invento a Robert Noyce. La fabricación del microchip 6,45 mm2 (la décima parte
    de una pulgada cuadra da), pronto fue seguida por la Capacidad de integrar hasta
    10 transistores
    miniaturizados y eventualmente 1.000 piezas varias en el mismo espacio. Alrededor
    de 1971, el microprocesador había sido desarrollado por la nueva compañía de
    Noyce, Intel. Esta novedad colocó en un finito microchip los circuitos
    para todas las funciones
    usuales de un computador. Fueron integrados ahora en el chip en una serie de
    delgadísimas capas. Esto hizo que la computación fuera más rápida y más flexible,
    al tiempo que los circuitos mejorados permitieron al computador realizar varias
    tareas al mismo tiempo y reservar memoria
    con mayor eficacia.
    La contribución de estos inventos
    ha sido incalculable en cuanto a la disponibilidad de Computadoras personales
    de difícil uso. Los Usuarios dan por hecho rápidas y fiables respuestas a sus
    comandos,
    y un gran almacenamiento
    de memoria,
    tanto en términos de memoria de trabajo RAM
    como en espacio de almacenamiento
    en disco
    duro para trabajos terminados. Los pioneros cuentan cómo en los años 60,
    cuando utilizaban sistemas
    centrales, estaban limitados a 4 K de memoria de trabajo, aproximadamente 1.5
    páginas escritas. Escribiendo programas,
    tenían que mantener las líneas de instrucciones cortas; sus comandos.
    Eran enviados por dispositivos de memoria que só1o podían retener una cantidad
    limitada de información antes de que se perdiera.

    Una
    pequeña historia

    Del
    mismo modo que su TV, la vídeo o la cámara, su PC trabaja en compatibilidad
    con alguna norma estándar. Las normas
    mas conocidas en el mundo de las computadoras personales son dos: IBM y Machintosh,
    la primera impuesta por la Empresa
    homónima conocida como, el gigante. Azul y la segunda por la
    Empresa APPLE. Esta última, fue pionera en desarrollar bastante de la tecnología
    que después adoptó IBM, pero la política de APPLE fue hasta hace poco, tener
    un producto
    caro y dirigido a un mercado
    especifico como el del diseño gráfico, sólo había software
    para Machintosh referido alas artes gratificas, por esto IBM, a pesar de su
    abismal diferencia tecnológica, logró imponerse en el resto de los ámbitos,
    aunque no por mérito de su fabricante. Otras empresas
    se lanzaron a fabricar computadoras. E1 problema era el Sistema
    Operativo. La
    computadora, como dijimos, es un conjunto de piezas que muestra
    resultados acordes con el software
    que le ponemos. Cuando una computadora arranca, necesita de un programa
    base para comenzar a operarla, un software que contenga los pasos básicos le
    permita copiar y ejecutar los programas
    que compró. Este software básico o de arranque se llama Sistema Operativo. La
    PC que lanzó IBM (años 1979/1980), venia con un sistema operativo propio denominado
    por esa empresa
    como OS, (iniciales de Operative System) ocupaba varios disquetes y tenia un
    costo
    adicional elevadisimo; obviamente la PC no funcionaba sin ~1. Los fabricantes
    que querían incursionar en el mercado
    debían comprar a IBM el OS. Estas computadoras fabricadas por terceros fueron
    llamadas, compatibles, ya que su hardware
    era capaz de ejecutar el OS de IBM. La
    computadora era más barata que la original, y el sistema OS, parecía desproporcionadamente
    caro. Frente a esto, un joven americano emprendedor y tenaz, se encerró en su
    habitación con una PC y no salió de ella hasta haber obtenido como resultado
    un sistema operativo compatible con el de IBM. Lo llamó DOS, siglas de Disk
    Operative System, porque además, entraba en un solo disquete. Ese joven es hoy
    el dueño de la
    empresa más grande del mundo dedicada al desarrollo
    de software, y marca
    el rumbo al mercado informático; se llama Bill
    Gates y su empresa, Microsoft.
    Las computadoras fabricadas por terceros, es decir. No por IBM, se extendieron
    rápidamente, su costo
    era hasta tres veces menores que la original del gigante azul, y por supuesto,
    el sistema operativo era el DOS de Bill
    Gates. En la jerga, sé comenzó a llamar alas PC'S, clones, o sea. Copias.
    IBM perdió el control
    muy pronto. E1 rumbo de la tecnología era marcado ahora por la empresa INTEL,
    que fabricaba los microprocesadores.
    El corazón. El cerebro
    de la PC. Lanzando uno nuevo aproximadamente cada año. De inmediato Bill Gates
    con su flamante empresa Microsoft,
    desarrollaba programas para aprovechar al máximo las capacidades de éste. Pronto
    queda claro que los lideres son INTEL y Microsoft, IBM, dueño de la idea, había
    perdido toda influencia sobre el tema. Hoy las computadoras de IBM llevan procesadores
    INTEL y ejecutan programas de Microsoft. Durante este periodo, surgieron las
    líneas de procesadores
    286, 386 y 486. Desde hace unos años, las cosas se dieron vuelta y Microsoft
    pasó a desarrollar software que exigía demasiado a los procesadores de INTEL,
    por lo que éste se veía obligado a apurar los tiempos de lanzamiento de nuevos
    modelos.
    Aprovechando esta situación, por 1993, IBM, APPLE y Motorola intentan quebrar
    el liderazgo
    INTEL-Microsoft, y lanzan el Power PC, un procesador
    que prometía hacer estragos, pero solo 1o utilizan APPLE en sus computadoras
    personales e IBM en su línea de servidores
    AS400. Simultáneamente otros fabricantes de procesadores tomaron impulso. Estas
    circunstancias impulsaron a INTEL a crear un procesador
    distinto. (Los anteriores eran continuas mejoras al 286 mas poderoso, así nació
    el Pentium.)
    Microsoft tiene una inesperada compañera que también demanda
    mas tecnología en el hardware:
    INTERNET.
    Digamos que, por culpa de Internet,
    INTEL creó el MMX. En realidad es un Pentium
    con mejoras que optimiza la ejecución de video
    y sonido
    multimedia
    en la PC. Luego nacen los modelos
    Pentium Pro, Pentium II y Pentium III. La evolución de la informática afecta
    a todos los aspectos de la vida, la computadora hoy tiene muchas aplicaciones.
    Por ejemplo cuando vamos a un hospital encontramos en la recepción una computadora
    informándonos dónde se encuentra la sección que buscamos (sí es pediatría, internación
    o rayos). Además, si necesitamos una ecografía observamos una computadora que
    registra todos los datos que él medica desea. De la misma forma que en nuestro
    ejemplo, podríamos señalar otras aplicaciones en diferentes áreas Ejemplo: MEDICINA.
    v TOMOGRAFiA COMPUTADA, v HISTORIAS CLINICAS EN BASES
    DE DATOS v BRAZOS ROBOT QUE REEMPLAZAN AL HOMBRE

     

    LA
    PREHISTORIA
    DE LA ERA DE LA COMPUTACION

     

    El
    hombre primitivo y su contabilidad
    incipiente

    Desde
    que el
    hombre primitivo se convirtió en "homo sapiens sapiens" se inclinó
    por las estadísticas y las expresó en la forma de artes gráficas, creando una
    incipiente modalidad de cálculo. Graficaba la cantidad de animales
    que habían cerca a su coto de caza y los guerreros de otros grupos
    nómades enemigos.

    Una
    muestra muy conocida y evidente la constituye los restos arqueológicos, de arte
    rupestre, hallados en las famosas cuevas de Altamira en España, donde se conservan
    prácticamente intactas, pinturas de bizontes y caballos, entre otras, con una
    calidad
    artística digna de tiempos contemporáneos.

    Las primera máquinas
    de calcular

     

    Los
    primeros vestigios de cálculo realizado por medios
    artesanalmente mecánicos, por decirlo de algún modo, se remontan a 3000
    años antes de Cristo (AC).

    Los
    Babilonios que habitaron en la antigua Mesopotania,
    empleaban unas pequeñas bolas hechas de semillas o pequeñas piedras, a manera
    de "cuentas"
    y que eran agrupadas en carriles de caña. Más aún, en 1800
    AC un matemático babilonio inventó los algoritmos
    que le permitieron resolver problemas de cálculo numérico

    Algoritmo:
    conjunto ordenado de operaciones
    propias de un cálculo
    .

    El
    intercambio comercial y las conquistas bélicas entre los pueblos del mundo antiguo,
    permitieron que el invento de los Babilonios, se transmitiesen a otros grupos
    culturales a través del tiempo, permitiendo de este modo que con los aportes
    respectivos, se mejorasen sus diseños.

    El
    Abaco

    Fueron
    los egipcios quienes 500
    años AC inventaron el primer dispositivo para calcular, basado en bolillas
    atravezadas por alambres. Posteriormente, a principios
    del segundo siglo DC, los chinos perfeccionaron este dispositivo, al cual le
    agregaron un soporte tipo bandeja, poniéndole por nombre Saun-pan.
    El Abaco permite realizar sumar, restar, multiplicar y dividir.

    La
    palabra Abaco proviene del griego ABAX
    que significa una tabla o carpeta cubierta de polvo. Este dispositivo en la
    forma moderna en que la conocemos, realmente apareció en el siglo 13 DC y fué
    sujeto de varios cambios y evoluciones en su técnica de calcular. Actualmente
    está compuesto por 10 columnas con 2 bolillas en la
    parte superior 5 en la parte inferior.

    Los
    Japoneses copiaron el abaco chino y lo re-diseñaron totalmente a 20 columnas
    con 1 bolilla en la parte superior y 10 en la inferior, denominándolo Soroban

    Como
    caso anecdótico cabe relatar que en 1946, un
    contador japonés de nombre Kiyoshu Matzukai,
    quien era un experto en el uso del Abaco, se enfrentó en un concurso contra
    una computadora de la época durante dos dias completos, resultando como ganador
    indiscutible el ciudadano japonés.

    Actualmente
    el antiguo abaco se emplea como método de enseñanza en las escuelas de los paises
    orientales, aunque es usado regularmente en muchos de lugares del mundo, particularmente
    en los pequeños negocios
    de los barrios chinos (Chinatowns) en los Estados
    Unidos de América y Canadá.

    Transcurrirían
    muchísimos siglos antes de que se ocurriera una innovación trascedental y ello
    sucedió entre los siglos VII y IX, cuando surgiera el sistema
    numérico arábigo, el mismo que empezó a difundirse lenta pero exitosamente
    en toda Europa.

     

    SIGLOS
    XIV ALXIX EPOCA DE GRANDES INVENTOS

    Trancurrieron
    1300 años antes de que se inventase algún dispositivo
    vinculado al cálculo y es sólo entre los siglos XIV al XIX que se suceden una
    serie de eventos
    e importantes aportes, tal como veremos a continuación.

    Jonh
    Napier (1550-1617) Inventor de los logaritmos

    En
    1550, en el pequeño pueblo de Tower of Merchiston, Inglaterra
    nace John Napier, considerado como uno de los estudiosos matemáticos más destacados
    de la historia
    universal, catalogado con Arquímedes, Isaac
    Newton o Albert Einsten.

    A
    la temprana edad de 13 años ingresó al Saint Salvador College, donde estudió por espacio
    de 2 años. Luego viajó por toda Europa, principalmente a Francia
    y Holanda donde continuó sus estudios e investigaciones
    entre 1566 y 1571. En vida recibió honrosamente el seudónimo de "la maravilla
    de Merchiston", debido a su reconocida genialidad y visión imaginativa
    en diversos campos.

    La
    principal contribución de John Napier, es sin lugar a dudas la invención de
    los logaritmos, que son un exponente al cual
    hay que elevar un número o base para que iguale a un número dado.

    Con
    relación al cálculo publicó una obra titulada "RABDOLOGIAE",
    que era un pequeño tratado sobre la forma de ejecutar multiplicaciones. En su
    apéndice explicaba un método para multiplicar y dividir
    usando varillas y placas metálicas que puesto en la práctica se convirtió
    en la precursora de las modernas calculadoras de bolsillo de hoy en dia, pese
    a que este rústico sistema era inseguro debido a que las varillas no podían
    ser manejadas con versatibilidad. Este invento irónicamente conocido como los
    "huesos
    de Napier".

    Abundan
    las historias sobre sus experimentos
    sobrenaturales y hay evidencias de que practicaba la adivinación. Su vida estuvo
    rodeada de misterio y falleció en Abril de 1617. Merchiston, el lugar de su
    nacimiento es ahora el centro de la famosa Universidad
    de Napier.

    Blaise
    Pascal
    (1623-1662) La Pascalina

    Nació
    en Clermont-Ferrand, Francia,
    el 19 de Junio de 1623. Hijo de un recaudador de impuestos
    y miembro de la alta burguesía, el jóven Blaise Pascal no tuvo una instrucción
    formal y fue educado por su padre. Su juventud
    transcurrió entre los salones de la nobleza y los círculos científicos de la
    sociedad
    francesa de la época.

    Cuando
    apenas contaba con 19 años Blaise Pascal empezó a construir una complicada máquina
    de sumar y restar, la cual fue concluida 3 años más tarde. En 1649 gracias a
    un decreto real obtuvo el monopolio
    para la fabricación y producción de su máquina de calcular conocida como la
    PASCALINA que realizaba operaciones
    de hasta 8 dígitos.

    En
    1646 Blaise Pascal empezó sus experimentos
    barométricos, los cuales continuó durante 8 años. En 1654 completó un trabajo
    dedicado a las leyes
    de la hidrostática y a la demostración y descripción de los efectos del peso
    del aire.

    Terminado
    estos experimentos realizó estudios de aritmética, destacando en el análisis
    y cálculo de probabilidades. Blaise Pascal inventó la prensa
    hidráulica y es considerado el padre y creador de la HIDROSTATICA.

    Este
    jóven científico falleció en 1662 en la ciudad de París a la temprana edad de
    39 años.

    Gottfried
    Wilhelm Leibniz (1646-1716) inventor del Sistema Binario

    Gottfried
    Leibniz nació el 1o de Julio de 1646 en Leipzig, Alemania. Realizó estudios
    de Leyes
    en la universidad
    de su ciudad natal y en 1675 estableció los fundamentos para el cálculo integral
    y diferencial.

    En
    1676 publicó su "Nuevo Método para lo Máximo y Mínimo", una exposición
    de cálculo diferencial. Fué filósofo, matemático y logístico. En 1670, Leibniz
    mejora la máquina inventada por Blaise Pascal, al agregarle capacidades de multiplicación,
    división y raíz cúbica.

    En
    1979 crea y presenta el modo aritmético binario, basado en "ceros"
    y "unos", lo cual serviría unos siglos más tarde para estandarizar
    la simbología utilizada para procesar la información en las computadoras modernas.

    Charles
    Babbage (1792-1871) La máquina diferencial y la analítica

    Charles
    Babbage nació el 26 de Diciembre de 1792 en Londres, algunos afirman que fue
    en 1971, y era hijo de un rico banquero inglés. Desde muy jóven se inclinó por
    los estudios de matemáticas y fue su propio instructor de Algebra, de cuyos
    estudios e investigación fue un terrible apasionado.

    Después
    de ingresar al Trinity College de Cambridge, en 1811, descubrió que estaba mucho
    más adelantado en sus conocimientos de matemáticas que sus propios tutores.
    Conjuntamente con Hershel, Peacock y otros fundó la Sociedad
    Analítica con el objeto de promover las matemáticas continentales. En 1816 fue
    elegido miembro de la Royal Society y fue uno de los promotores de la formación
    de la Sociedad Real de Astronomía, fundada en 1820.

    A
    partir de 1820, Charles Babbage despertó un enorme interés sobre las máquinas
    de calcular. Con la ayuda de la condesa Ada Byron,
    hija del poeta Lord Byron, desarrolla el concepto
    de 2 calculadoras mecánicas o "máquinas de números".

    La
    primera de ellas, llamada la Máquina Diferencial
    era un dispositivo de 6 dígitos que resolvía ecuaciones
    polinómicas por el método diferencial. La segunda, denominada Máquina
    Analítica, que tampoco fue terminada, fué diseñada como un dispositivo
    de cómputo general.

    Ambos
    equipos eran totalmente mecánicos, usaban ejes, engranajes y poleas
    para poder
    ejecutar los cálculos. Por este motivo los diseños funcionaban en teoría pero
    en la práctica las maquinarias y herramientas
    de fabricación de la época eran imprecisas y no pudieron construir las piezas
    con la necesaria exactitud.

    Dispositivo
    de entrada
    de la información: tarjetas metálicas
    perforadas en miles de combinaciones.

    Procesador:
    dispositivo con cientos de ejes verticales y miles de piñones.

    Unidad
    de control
    : dispositivo en forma de barril con
    filamentos y ejes (como cuerdas de piano).

    Dispositivo
    de salida
    : Plantillas diseñadas para ser utilizadas en una prensa
    de imprenta.

    En
    lo que respecta a Babbage y Ada Byron sus proyectos
    quedaron frustrados. Sin embargo, los planos y modelos de ambas máquinas sirvieron
    como puntos referenciales de muchos de los conceptos
    de computación aplicados hoy en día y para muchos, Charles Babbage es
    considerado el padre de las computadoras.

    A
    pesar de sus muchos logros y aportes a la
    ciencia, a través de su vida, la frustración de no poder llegar a construir
    exitosamente sus máquinas de calcular, principlamente por la falta de apoyo
    del gobierno,
    convirtió a Babagge en un hombre resentido y amargado hasta el dia de su muerte
    ocurrida en Londres el 18 de Octubre de 1871.

    La
    condesa Ada Byron (1815-1851) La primera programadora de la historia

    Augusta
    Ada Byron, también llamada Lady Lovelace, fué
    uno de los personajes más pintorescos de la historia de la computación. Nació
    en Londres, el 10 de Diciembre de 1815 siendo hija del ilustre poeta inglés
    Lord Byron. Apenas 5 semanas después de nacida su madre Lady Byron, se separó
    de su esposo y obtuvo la custodia de su hija, encargándose de su crianza y educación
    por cuanto a ella le aterrorizaba la idea de que su hija acabase convirtiéndose
    en un poeta como su padre.

    Lady
    Lovelace tuvo vocaciones de analista y metafísica y a los 17 años influenciada
    por Mary Somerville realizó sus estudios de matemáticas. Fue en una cena que
    escuchó y se interesó sobre las ideas de Charles Babbage acerca de una nueva
    máquina de calcular. Ella intuyó que un proyecto
    de esa envergadura podría convertirse en una realidad y fue una de las pocas
    personas que creyó en la "universabilidad de las ideas", preconizada
    por Charles Babbage y decidió colaborar con él.

    Ada
    Byron, es considerada la primera programadora de la era
    de la computación, ya que fué ella quien se hizo cargo del análisis y desarrollo
    de todo el
    trabajo del inventor y la programación de los cálculos a procesarse.

    De
    quebrantable salud
    y muy enfermiza, al igual que su padre, Lord Byron, Lady Lovelace falleció siendo
    muy jóven, a la edad de 36 años.

    En
    la década de los 80 el Departamento de Defensa de los Estados Unidos de América
    desarrolló un lenguaje
    de programación en honor a la condesa, al cual nombró ADA.

    Joseph
    Marie Jacquard (1752 – 1834) Las plantillas perforadas

    Nació
    el 7de Julio de 1752 en la ciudad de Lyon, Francia, y aunque fué hijo de un
    modesto obrero textil tuvo grandes aspiraciones para su futuro.

    En
    1801 y ya convertido en inventor e industrial textil Joseph Marie Jacquard dio
    un fundamental aporte al proceso
    de las máquinas programables al modificar una maquinaria textil, inventada por
    Vaucanson, a la cual implementó un sistema de plantillas o moldes metálicos
    perforados, unidas por correas, que permitían programar las puntadas del tejido
    logrando obtener una diversidad de tramas y figuras.

    Fue tan grande el interés despertado por el invento de Jacquard,
    que el propio Napoleón Bonaparte se quedó muy
    asombrado cuando en 1805 asistió a una exibición industrial celebrado en Lyon,
    para posteriormente condecorarlo con la medalla de La Legión de Honor y un premio
    de 50 francos por cada Telar que fuese comercializado durante el período de 6
    años.

    A
    partir del invento de Jacquard empezaron a proliferar, poniéndose muy de moda
    las máquinas y equipos programados por sistemas
    perforados, tales como los pianos mecánicos, conocidos como pianolas,
    muñecos y otros novedosos juguetes mecánicos.

    Herman
    Hollerith (1860-1929) El Censo de 1890 en los Estados Unidos

    Nacido
    en Buffalo, New
    York, el 29 de Febrero de 1860 e hijo de unos inmigrantes alemanes realizó
    estudios en el City College de New York a la
    edad de 15 años y se graduó de Ingeniero de Minas,
    con altas distinciones, en la Columbia School of Mines, a la edad de 19 años.

    Su
    primer empleo
    lo obtuvo en la Oficina
    de Censos en 1880. Posteriormente enseñó ingeniería mecánica en el Instituto
    Tecnológico de Massashusetts (MIT) y luego trabajó para la
    Oficina
    de Patentes del gobierno
    norteamericano.

    Hollerith
    empezó a trabajar con el sistema de máquinas tabuladoras durante sus dias en
    el MIT, logrando su primera patente en 1884.

    Desarrolló
    una prensa manual
    que detectaba los orificios en las tarjetas perforadas, tenía un alambre que
    pasaba a través de los huecos dentro de una copa de mercurio debajo de la tarjeta,
    cerrando de este modo el circuito eléctrico. Este proceso disparaba unos contadores
    mecánicos y ordenaba los recipientes de las tarjetas, tabulando así en forma
    apropiada la información.

    En
    1880 se celebró un censo de población nacional en los Estados Unidos y tuvieron
    que transcurrir 7 largos años antes de que toda la información quedase procesada
    por el Buró de Censos, debido a que los datos levantados eran tabulados en papel.
    Por consiguiente se estimó que el próximo censo a celebrarse en 1890 tardaría
    unos 10 o 12 años en procesarse y poder obtener los resultados finales. Es por
    ello que el gobierno norteamericano convocó a una licitación para un sistema
    de procesamiento
    de datos que proporcionase resultados más rápidos.

    Herman
    Hollerith, que trabajaba como empleado del buró de Censos, propuso su sistema
    basado en tarjetas perforadas que si bien esto no era una invención, puesto
    en práctica constituyó el primer intento exitoso de automatizar el procesamiento
    de ingentes volúmenes de información.

    Las máquinas de Hollerith clasificaron, ordenaban y enumeraban
    las tarjetas perforadas que contenían los datos de las personas censadas, logrando
    una rápida emisión de reportes, a partir de los 6 meses. Los resultados finales
    del censo de 1890 se obtuvieron en el tiempo record de 2 años y medio.

    Herman
    Hollerith en 1896 fundó la TABULATING MACHINE COMPANY
    que luego se convirtió en la Computer Tabulating Machine (CTR).

    Hollerith
    se retiró en 1921 y en 1924 CTR cambió su nombre por el de International Business
    Machines Corporation (IBM), que años más tarde
    se convertiría en el gigante de la computación.

    Herman
    Hollerith falleció el 17 de Noviembre de 1929.

     

    1939
    – 1958 LA PRIMERA GENERACION DE COMPUTADORAS

    La
    Segunda Guerra
    Mundial impulsó el desarrollo de dispositivos de cómputo cuyos diseños habían
    empezado alrededor de 1933. Aunque algunos hechos trascendentales, ocurrieron
    en forma simultánea.

    John
    Louis von Neumann (1903-1957)

    Este
    científico matemático ocupa un lugar privilegiado en la historia de la computación
    debido a sus múltiples e importantísimos aportes a las computadoras de la primera
    generación. Nació el 28 de Diciembre de 1903 en Budapest, Hungria, llegando
    a ser uno de los más brillantes matemáticos de la era de la computación.

    Von
    Neumann fue un niño prodigio que a la edad de 6 años podía dividir mentalmente
    cifras de 8 dígitos. Recibió una temprana educación en su ciudad natal, bajo
    el tutelaje del matemático M. Fekete conjuntamente con el cual publicó su primer
    trabajo a la edad de 18 años. En 1921 ingresó a la facultad de Química de la
    Universidad de Budapest pero decidió continuar sus estudios en Berlin y Zurich,
    graduándose de Ingeniero Químico en 1925.

    Inmediatamente
    después de graduado volvió a sus investigaciones
    y estudios de las matemáticas de las cuales fue un apasionado,
    logrando un doctorado en 1928. Rápidamente ganó una reputación como un excelente
    matemático y en 1930 fue invitado a visitar la Universidad de Princeton (USA)
    y al ser fundado el Instituto de Estudios Avanzados en 1933, Von Neumman fue
    elegido como uno de sus únicos 6 profesores matemáticos, actividad que desempeñó
    hasta el resto de su vida.

    A
    través de los años desempeñó muchas cátedras en universidades de prestigio en
    todo el mundo, tales como Harvard, Pensilvania, Princeton, Roma,
    Amsterdam, etc. En 1956 fue elgido miembro honorario de la Academia de Ciencias
    Exactas en Lima, Perú.

    A
    través de los años desempeñó muchas cátedras en universidades de prestigio en
    todo el mundo, tales como Harvard, Pensilvania, Princeton, Roma,
    Amsterdam, etc. En 1956 fue elgido miembro honorario de la Academia de Ciencias
    Exactas en Lima, Perú.

    Durante
    la
    segunda guerra mundial fueron aprovechados sus conocimientos en hidrodinámica,
    balística, meteorología, teoría de juegos
    y estadísticas. En 1944 contribuyó en forma directa en los diseños de fabricación
    de computadoras de esa generación, asesorando a Eckert y John Machly, creadores
    de la ENIAC y que construyeran además la UNIVAC en 1950. Durante esa década
    trabajó como consultor para la IBM colaborando con Howard Aiken para la construcción
    de la computadora Mark I de Harvard.

    John
    Von Neumann falleció el 8 de Feberero de 1957 en Washington DC.

    Konrad
    Zuse (1910-1957) El primer prototipo de computadora digital

    Durante
    1936 y 1939 el ingeniero alemán Konrad Zuse construyó la primera computadora
    electromecánica binaria programable, la cual hacía uso de relés eléctricos para
    automatizar los procesos.
    Sin embargo, tan sólo fabricó un prototipo para pruebas
    al cual llamó Z1, el mismo que nunca llegó a funcionar a cabalidad debido a
    la falta de perfeccionamiento en sus elementos mecánicos.

    En
    1940 Zuse terminó su modelo
    Z2, el cual fue la primera computadora electro-mecánica completamente funcional
    del mundo. Al año siguiente, en 1941, fabricó su modelo Z3
    al cual le desarrolló un programa
    de control
    que hacía uso de los dígitos binarios.

    Sin
    embargo esta computadora fue destruida en 1944 a causa de la guerra.
    Entre 1945 y 1946 creó el "Plankalkül" (Plan
    de Cálculos), el primer lenguaje
    de programación de la historia y predecesor de los lenguajes modernos de programación
    algorítmica.

    Konrad
    Zuse nació en Berlin el 22 de Junio de 1910. Estudió ingeniería civil en el
    Instituto Politécnico de Berlin, graduándose en 1933, trabajó en la industria
    aeronáutica pero años más tarde se retiró para dedicarse a las tareas de "inventor",
    labor que desarrolló en el dormitorio de un departamento desocupado, de propiedad
    de sus padres.

    En
    1949 formó la fundación ZUSE KG dedicada al desarrollo de programas de control
    para computadoras electro mecánicas. En 1956 esta fundación fue adquirida por
    la empresa Siemens.

    A
    lo largo de su vida Konrad Zuze fue motivo de muchos honores, falleciendo en
    Hünfeld, Alemania el 18 de Diciembre de 1995.

    1939
    Atanasoff-Berry y la ABC

    La
    Atanasoff-Berry Computer o ABC empezó a ser concebida por el profesor de física
    John Vincent Atanasoff a partir de 1933, formulando
    la idea de usar el sistema de números binarios para su funcionamiento. Al buscar
    un ayudante para cumplir con su inovativo propósito, le fué recomendado por
    un colega, el joven y brillante recién graduado en ingeniería mecánica de nombre
    Clifford Berry.

    Entre
    los años de 1937 y 1942, contando con la ayuda de Berry, diseño y construyó
    en el sótano de su laboratorio
    en la Universidad del Estado
    de Iowa su famoso prototipo a un costo de 1,460 dólares, el mismo que
    estaba compuesto de tubos al vacío, capacitores
    y un tambor rotatorio para el manejo de los elementos de la memoria,
    así como un sistema lógico para su operatividad. Esta computadora fue usada
    para resolver ecuaciones
    matemáticas complejas.

    La Atanasoff Berry Computer usaba relés, núcleos magnéticos para
    la
    memoria y tubos de vidrio
    al vacío (radio
    tubos) y condensadores
    (capacitores)
    para el almacenamiento de la
    memoria y el procesamiento de los datos.

    La
    Atanasoff-Berry computer o ABC terminada de construirse en 1942 en el Iowa State
    College fué la primera computadora electrónica digital, aunque sin buenos resultados
    y nunca fué mejorada. Desafortunadamente sus inventores jamás la patentaron
    y por aquel entonces surgieron problemas sobre la propiedad
    intelectual de la misma, en cuyas divergencias participó la IBM.

    Aunque
    existen serias dudas sobre si la ABC (Atanasoff-Berry Computer) fué completamente
    operativa, el hecho es que John W. Mauchly visitó a Atanasoff en 1941 y observó
    muy de cerca su impresionante máquinaria y tuvo la oportunidad de revisar

    su
    tecnología. Existe una gran controversia respecto a que Mauchly copió muchas
    de las ideas y conceptos del profesor Atanasoff, para posteriormente entre los
    aõs de 1943 a 1946 contruyera la computadora ENIAC.

    1941
    Alan M. Turing y la Collosus

    La
    Collosus usaba miles de válvulas y 2,400 bombas
    de vidrio
    al vacío, así como un scanner
    que podía leer 5,000 caracteres por cinta de papel.

    La
    MARK I de IBM en 1944

    Mark
    I, es la primera computadora construída por la IBM a gran escala,
    desarrollada en cooperación con la Universidad de Harvard.

    La
    Calculadora Automática de Control Secuencial de la Mark I es la primera máquina
    capaz de ejecutar largas operaciones en forma automática. Medía 15 metros de
    largo, 2.40 m. de altura y pesaba 5 toneladas.

    La
    Mark I usaba relés electromecánicos para resolver problemas de suma en menos
    de un segundo, 6 segundos para multiplicación y el doble de tiempo para la división.
    Muchísimo mas lenta que una calculadora de bolsillo del presente.

    Grace
    Hooper (1906-1992) la MARK I de IBM en 1944

    Nada
    menos que una brillante mujer,
    la almirante Grace Hooper, conocida como "Amazing
    Grace" (la fascinante Grace), una excelente oficial de la Marina de Guerra
    de los Estados Unidos, entre los años 1940 y 1950 se convirtió en pionera y
    propulsora de la programación en computadoras.

    Como
    innovativa y pensadora fundamentalista, la almirante Hooper creyó firmemente
    en que las computadoras podían servir para aplicaciones de negocios
    más allá del uso primordial que se le daban a estos equipos en los campos científicos
    y militar.

    Ella
    creó el
    lenguaje Flowmatic, con el cual desarrolló muchas aplicaciones y en 1951 produjo
    el primer compilador, denominado A-0 (Math Matic). En 1960 presentó su primera
    versión del lenguaje COBOL (Common Business-Oriented
    Language).

    Grace
    se graduó en matemáticas y física en el Vassar College. Completó su maestría
    y doctorado en la Universidad de Yale..

    Durante
    la
    Segunda Guerra Mundial se unió a la Marina de Guerra de los Estados Unidos,
    habiendo trabajado en el Bureau of Ordenance Computation.

    Paradójicamente
    recibió entre muchos reconocimientos y condecoraciones, el título de Hombre
    del Año en Ciencia
    de la Computación, otorgado por la Data Processing Managment Association. También
    fué la primera mujer nombrada miembro distinguido de British Computer Society
    y fué la primera y única mujer nombrada con el grado de Almirante de la Marina
    de Guerra de su pais. Grace Hooper falleció en 1992.

    1946
    ENIAC Electronic Numerical Integrator and Computer

    Otra
    de las más famosas computadoras de la época fué la ENIAC
    que contaba con 17,468 tubos de vidrio al vacío, similares a los radio-tubos,
    y que fuera empleada por el ejército exclusivamente para cálculos balísticos,
    o de la trayectoria de los misiles.

    Fué
    construída en 1946 en la Universidad de Pensylvania por John Mauchly y J. Presper
    Eckert. Medía 2.40 de ancho por 30 metros de largo y pesaba
    80 toneladas.

    La
    ENIAC podía resolver 5,000 sumas y 360 multiplicaciones por segundo, pero su
    programación era terriblemente tediosa y debía cambiársele de tubos contínuamente.

    1949
    EDVAC (Electronic Discrete variable Automatic Computer)

    La
    computadora EDVAC, construida en la Universidad de
    Manchester, en 1949 fué el primer equipo con capacidad
    de almacenamiento de memoria e hizo desechar a los otros equipos que tenían
    que ser intercambiados o reconfigurados cada vez que se usaban.

    Esta
    computadora fué también construída por John Maucly y J. Prespert Eckert, quienes
    empezaron a trabajar en ella 2 años antes que la ENIAC empezara a operar. La
    idea era tener el programa alamacenado en la computadora y esto fué posible
    gracias a que la EDVAC tenía una mayor capacidad de almacenamiento de memoria.

    La
    memoria consistía en líneas de mercurio dentro de un tubo de vidrio al vacío,
    de tal modo que un impulso electrónico podía ir y venir en 2 posiciones, para
    almacenar los ceros (0) y unos (1). Esto era indispensable ya que en lugar de
    usar decimales la EDVAC empleaba números binarios.

    En
    realidad EDVAC fué la primera verdadera computadora electrónica digital de la
    historia, tal como se le concibe en estos tiempos y a partir de ella se empezaron
    a fabricar arquitecturas más completas.

    1951
    UNIVAC (Universal Automatic Computer) de John Mauchly

    y J. Presper Eckert

    Todas
    los equipos mencionados y que pertenecen a la primera generación de computadoras
    entre los años 1940 y 1958, se caracterizaron por usar entre sus componentes
    relés, bobinas y tubos de vidrio al vacio.

    A
    fines de esta generación, entre 1951 y 1958 Mauchly y Eckert construyeron la
    famosa serie UNIVAC, la misma que fué diseñada con propósitos de uso general
    y universal pues ya podía procesar problemas alfanuméricos y de datos.

    Las
    tarjetas perforadas todavía conformaban el mayor recurso de alimentación de
    datos y toda la programación era muy compleja pues se realizaba en lenguaje
    de máquina.

    En
    esta generación proliferante de inventos
    no podemos dejar de mencionar los siguientes inventos:

    1948:
    IBM lanza la primera calculadora electrónica denominándola simplemente IBM 604

    1948:
    IBM construye la SSEC (Selective Sequence Electronic Calculator) con 12,000
    tubos de vidrio al vacío y 21,000 relés electromecánicos.

    La
    SSEC es 250 veces más rápida que la Mark I, pero muchísimo menos poderosa que
    las computadoras modernas de escritorio o las portátiles notebooks.

    1948:
    El Transistor
    es inventado por William Bradford Shockley con John Bardeen y Walter H. Brattain.

    Jack
    Forrester inventa la memoria de núcleo de acero.
    Estos núcleos de almacenamiento sirven como la tecnología básica detrás de cada
    computadora hasta los años 70s. Los diminutos núcleos de acero
    pueden ser magnetizados como contadores de reloj, para representar bits de información,
    la cual puede ser invocada en millonésimas de segundo. Fueron patentados en
    1956.

    1950:
    Maurice V. Wilkes de la Universidad de Cambridge emplea el
    lenguaje assembler en EDSAC.

    1950:
    Remington-Rand adquiere la Eckert-Mauchly Computer Corp.

    1951:
    Se forma the Computer Society.

    1951:
    Wang Laboratories, Inc. es fundado por An Wang, en Boston.

    1951:
    La primera computadora con ventilador es operada en el MIT. Fué diseñada por
    Jay Forrester y Ken Olsen.

    1952:
    IBM introduce el modelo 701, su primera computadora electrónica con programa
    de almacenamiento.

    Antes
    de que los mecanismos de cintas magnéticas se convirtiesen en un estándar para
    el almacenamiento de la información, IBM presentó un sistema que que consistía
    en una columna con una cámara de aire,
    la servía para controlar la rápida aceleración o desaceleración de la cinta.

    Con
    la IBM 701, los carriles de las cintas de almacenamiento soportaban 100 caracteres
    por pulgada, o el equivalente de 12,500 tarjetas perforada, por cada carril.

    En
    1953 la IBM 726 introdujo la primera cinta magnética, con una densidad
    de 100 caracteres por pulgada a una velocidad de 75 pulgadas por segundo.

    1952:
    Remington-Rand adquiere Engineering Research Associates (ERA).

    1952:
    RCA desarrolla la BIZMAC con memoria de núcleo de acero y tambor magnético para
    soportar base
    de datos.

    1952:
    El departamento de Justicia
    de los Estados Unidos enjuicia a la IBM por monopolizar las tarjetas perforadas,
    en la industria
    de la contabilidad computarizada.

    1953:
    Burroughs Corp. instala la Universal Digital Electronic Computer (UDEC) en la
    Universidad del Estado
    de Wayne.

    1953:
    La primera impresora
    de alta velocidad es desarrollada por Remington-Rand para su uso en la Univac.

    1954:
    El lenguaje FORTRAN es creado por John Backus en IBM, pero Harlan Herrick desarrolla
    el primer programa en FORTRAN.

    1954:
    Gene Amdahl desarrolla el primer sistema operativo, usado en la IBM 704.

    1955:
    Remington-Rand surge con el Sperry Gyroscope para conformar Sperry-Rand.

    1956:
    El gobierno de Estados Unidos enjuicia a IBM y lo obliga a vender así como alquilar
    equipos bajo la modalidad de Leasing.

    1956:
    A. Newell, D. Shaw and F. Simon inventan el IPL (Information Processing Language.)

    1956:
    El concepto
    de Inteligencia
    Artificial es acuñado por John McCarthy.

    1957:
    Control Data Corporation es formado por William C. Norris y un grupo
    de ingenieros de Sperry-Rand.

    1957:
    Digital Equipment Corporation es fundada por Ken Olsen.

    1958:
    ALGOL, inicialmente llamado IAL (International Algebraic Language), es presentado
    en Zurich.

    1958:
    Las primeras computadoras electrónicas son fabricadas en japón por la NEC: la
    NEC-1101 y NEC -1102.

    1958:
    Frank Rosenblatt construye el Perceptron Mark I, usando un dispositivo de salida
    CRT (monitor
    de tubos de rayos catódicos).

    1958:
    El lenguaje LISP es desarrollado para la IBM 704 en el MIT, bajo el mando de
    John McCarthy.

    1958:
    Seymour Cray construye el CDC 1604, para Control Data Corp., el primer super
    computador totalmente transistorizado.

    1958:
    Jack Kilby de Texas Instruments frabrica el primer circuito integrado.

     

    1959
    – 1964 LA SEGUNDA GENERACION DE COMPUTADORAS

    1948
    Los transistores

    Allá
    por 1945 la máxima limitación de los componentes de las computadoras eran la
    causa de su lenta velocidad de procesamiento.

    Los
    relés electro-mecánicos, la pobre disipación de calor
    de los amplificadores basados en tubos de vacío, motivaron a Mervin
    Kelly, por ese entonces Director de Investigación de los Laboratorios
    Bell, a conformar un grupo de investigadores que pudiesen concebir unos
    semi-conductores.

    El
    grupo fue conformado en 1946 por varios investigadores, entre
    los que destacaron John Bardeen, Walter
    Brattain y William
    Shockley quienes en 1948 inventaron el primer Transistor,
    sin presagiar que estaban a punto de lograr uno de los mayores descubrimientos
    de la era de la computación.

    En
    1947, estos 3 científicos de la Bell, perteneciente a AT&T en New Jersey
    empezaron a experimentar con un tipo de semiconductor llamado
    "germanio", un elemento blanco grisáseo, que poseía un un lustre brillante
    metálico y una estructura
    cristalina, con un molde de la estructira de un diamante.

    Fueron John Bardeen, Walter Brattain y William Shockley quienes
    conociendo las propiedades del silicón hallado en las piedras de cuarzo, finalmente
    concibieron el Transistor. Sus componentes originales fueron muy simples. Cada
    uno de ellos estaba soldado encima de una tabla de circuitos que servía para conectar
    a otros componentes individuales.

    Un
    transistor contiene un material semi-conductor que puede cambiar su estado eléctrico
    cuando es pulsado. En su estado normal el semi-conductor no es conductivo, pero
    cuando se le aplica un voltaje se convierte en conductivo y la corriente leéctrica
    fluye a través de éste. En las computadoras, funcionan como un swicht electrónico
    o puente.

    1958
    Los Circuitos Integrados

    La
    computación empezó a tomar el interés de los científicos y estudiosos a partir
    del invento de los Transistores
    y no se pueden dejar de mencionar los siguientes hechos cronológicos:

    Fue
    en 1958 que Jack Kilby y Robert
    Noycea, de la Texas Instrument, inventaron los circuitos
    integrados, que eran un conjunto de transistores interconectados con
    resistencias,
    dentro de un solo chip. Fue a partir de este hecho que las computadoras empezaron
    a fabricarse de menor tamaño, más veloces y a menor costo ya que la cantidad
    de transistores colocados en un solo chip fué aumentando en forma exponencial.
    Vale decir de un puñado de ellos a decenas de milllones en tan sólo uno de ellos.

    Bajo
    el principio de que un impulso eléctrico viaje a menos distancia, más rápido
    llegará a su destino. A menor dimensión de los elementos, mas veloces son sus
    impulsos. Hoy día la velocidad es medida en billones o trillones de segundo.

    1959:
    COBOL
    es definido en la Conferencia
    de Sistemas de Lenguajes de Datos (Codasyl), basado en el Flow-Matic de Grace
    Hooper.

    1959:
    IBM introduce el modelo 1401. Más de 10,000 unidades serían vendidas.

    1959:
    IBM despacha su primera computadora transistorizada o de segunda generación.
    Desde los modelos 1620 hasta el 1790.

    1960:
    Benjamin Curley construye la primera minicomputadora, la PDP-1, en Digital Equipment
    Corporation.

    1960:
    Control Data Corporation entrega su primer producto,
    una enorme computadora científica llamada la CDC 1604.

    1960:
    DEC ships the first small computer, the PDP-1.

    1960:
    Aparece en el mercado el primer disco remobible.

    1961:
    La multiprogramación corre en la computadora IBM Stretch (de estiración). Varios
    conceptos pioneros se aplican, incluyendo un nuevo tipo de tarjeta de circuitos
    y transistores, con un caracter
    de 8 bits, llamado byte. La IBM Strech es 75 veces más rápida que los modelos
    de tubos al vacío, pero resulta en un fracaso comercial. Permaneció operativa
    hasta 1971.

    A
    pesar de que podía ejecutar 100 billones de operaciones por día, no cumple con
    las prdicciones de los ingenieros de la IBM, lo cual obliga a Thomas Watson
    Jr. a reducir el precio
    a casi la mitad. Sin embargo, muchas de sus innovaciones formarían parte de
    la existosa serie IBM 360.

    1962:
    IBM presenta su modelo modelo 1311 usando los primeros discos remobibles y que
    por muchísimos años se convertirían en un estándar de la industria de la computación.
    La portabilidad de la información empezó a ser posible gracias a esta nueva
    tecnología, la cual fué empleada por los otros líderes del hardware, tales como
    Digital Equipment, Control Data y la NEC de Japón, entre otros grandes fabricantes
    de computadoras.

    Cada
    paquete de discos (disk pack) podía guardar mas de 2 millones de caracteres
    de información, (2 Megabytes de ahora), lo cual promovió la generación de lenguajes
    de programción y sus respectivas aplicaciones, ya que los usuarios podían intercambiar
    los paquetes de discos con facilidad.

    1962:
    Por primera vez en la historia la IBM reporta ganacias anuales de 1 billón de
    dólares.

    Ross
    Perot nació en Texarkana, Texas in 1930. Después de trabajar en IBM en 1962
    funda EDS (Electronic Data Systems), una
    empresa de servicios
    para computadoras. Durante la toma de rehenes en Irán en 1979, organizó una
    exitosa operación para rescatar a dos de sus empleados de una prisión. Vendió
    EDS a la General Motors en 1984, se diserfició en inmobiliarias, gas
    y aceite y más tarde empezó una nueva empresa de servicios
    de computadoras.

    Ross
    Perot nació en Texarkana, Texas in 1930. Después de trabajar en IBM en 1962
    funda EDS (Electronic Data Systems), una empresa de servicios para computadoras.
    Durante la toma de rehenes en Irán en 1979, organizó una exitosa operación para
    rescatar a dos de sus empleados de una prisión. Vendió EDS a la General Motors
    en 1984, se diserfició en inmobiliarias, gas
    y aceite y más tarde empezó una nueva empresa de servicios de computadoras.

    En
    1992 postuló a la presidencia de los Estados Unidos, como independiente, sin
    resultados positivos..

    1963:
    DEC entrega la primera minicomputadora modelo PDP-5.

    1963:
    Tandy adquiere Radio Shack, con sus 9 tiendas.

    1964:
    IBM anuncia el lanzamiento de su Systema 360, la primera familia
    de computadoras compatibles.

    Fué
    el principio del uso de lenguajes amigables con comandos en inglés, tales como
    FORTRAN y COBOL,
    hasta ahora en uso, obviamente en versiones mucho más avanzadas. A pesar de
    ello hasta 1964 no se crearon equipos que se pudiesen nombrar como destacables.

    En
    1964 John Kemeny y Thomas Kurtz desarrollaron
    la primera versión del popular lenguaje BASIC
    en el Dartmouth College y que permitió hacer más facil la programación de las
    computadoras emergentes.

     

     

    1964
    – 1971 LA TERCERA GENERACION DE COMPUTADORAS

     

    Si
    bien los circuitos
    integrados fueron inventados en 1958, tuvieron que transcurrir algunos años
    más para que las grandes compañias `los dispositivos que permitiesen desarrollar
    verdaderas computadoras, mas completos y veloces.

    En
    Abril de 1964 IBM presenta su generación de computadores IBM 360

    Estos
    equipos, a pesar de que no fueron los únicos que se fabricaron en esta generación,
    la simbolizan debido a su enorme aceptación en el mercado de las grande instituciones
    estatales y privadas de todo el mundo.

    Las
    IBM 360 estaban basadas en circuitos
    integrados, la alimentación de la información era realizada por medio de
    tarjetas perforadas, previamente tabuladas y su almacenamiento se hacía en cintas
    magnéticas. IBM lanzó muchos modelos de esta serie como la IBM 360 20/30/40/50/65/67/75/85/90/195.
    Su sistema operativo simplemente se llama OS (Operating System) y los lenguajes
    que manejaron fueron el FORTRAN, ALGOL y COBOL:.

    1964:
    Control Data Corporation introduce la CDC 6000, que emplea palabras de 60-bits
    y procesamiento de datos en paralelo. Luego vino la CDC 6600, una de las más
    poderosas computadoras por varios años. Fué diseñada por Seymour Cray.

    1964:
    BASIC (Beginners All-purpose Symbolic Instruction Language) es creado por Tom
    Kurtz y John Kemeny de Dartmouth.

    1964:
    Honeywell presenta su modelo H-200 para competir con los sistemas IBM 1400.

    1964:
    NCR introduce la 315/100.

    1965:
    Digital Equipment despachas su primera minicomputadora la PDP-8.

    1966:
    Honeywell adquiere Computer Control Company, un fabricante de minicomputadoras.

    1966:
    Scientific Data Systems (SDS) introduce su modelo Sigma 7.

    1966:
    Texas Instruments lanza su primera calculadora de bolsillo de estado sólido.

    1967:
    DEC introduce la computadora PDP-10.

    1967:
    A.H. Bobeck de los laboratorios Bell Laboratories desarrolla la memoria burbuja.

    1967:
    Burroughs despacha el modelo B3200.

    1967:
    El primer número de Computerworld es publicado.

    1968:
    Univac presenta su computadora modelo 9400.

    1968:
    Integrated Electronics (Intel) Corp. es fundada por Gordon Moore y Robert Noyce.

    1969:
    El compilador PASCAL es escrito po Nicklaus Wirth e instalado en la CDC 6400.

    1970:
    DEC lanza su primera minicomputadora de 16 bits. La PDP-11/20.

    1970:
    Data General despacha la SuperNova.

    1970:
    Honeywell adquiere la división de computadoras de General Electric.

    1970:
    Xerox Data Systems introduce la CF-16A.

    1970:
    IBM despacha su primer sistema System 370, computadora de cuarta generación.
    En 1971 se presentan los modelos 370/135 hasta el modelo 370/195.

    Ese
    mismo año IBM desarrolla e introduce los loppy disks son introducidos para cargar
    el microcódigo de la IBM 370.

    1971:
    Intel Corporation presenta el primer microprocesador, el 4004.

     

     

    1971
    – 1981 LA CUARTA GENERACION DE COMPUTADORAS

    1971
    El microprocesador Intel 4004

    En
    1969, la empresa japonesa Busicom solicitó a
    Intel que le fabricase un chip para un modelo nuevo de calculadora de escritorio,
    con cinta impresora,
    que deseaba producir masivamente.

    Un
    equipo liderado por Marcial Edward "Ted" Hoff, quien fue uno de sus
    primeros empleados desde 1986, desarrolló y terminó de fabricar en Marzo de
    1971 un microprocesador, pero para uso general, al cual denominaron el chip
    4000.

    Ted
    Hoff se proyectó a diseñar un microprocesador de capacidades o prestaciones
    mas completas que las solicitadas por la empresa japonesa, realizando el mismo
    esfuerzo, con la posibilidad de usos futuros. Luego de sus predecesores, Intel
    fabricó los modelos 4001, 4002, 4003 y 4004.

    Este
    chip de 4 bits, contenía 23,000 transistores que procesaban 108 kHz o 0.06 MIPS.
    Contaba con 46 instrucciones y 4k de espacio de almacenamiento. Posteriormente
    Intel lanzó el modelo 4004 al cual le agregó 14 instrucciones más y que tenía
    una capacidad de 8k de almacenamiento.

    Intel
    vendió el microchip a la empresa japonesa, pero después le recompró los derechos
    de propiedad intelectual por US $ 60,000, pues se dió cuenta que si bien el
    chip 4004 había sido fabricado para operar como cerebro
    de una calculadora, su versatibilidad como microprocesador de uso general le
    permitía ser tan poderoso como el ENIAC.

    1971
    La Kenbak I, primera PC

    Durante
    1985 el Museo de Computación de Boston realizó un concurso con el objeto de
    registrar la historia de la computación. El museo estuvo publicitando este evento
    en todos los Estados Unidos, solicitando al público su contribución personal
    y como resultado de 316 muestras remitidas y ante la enorme sorpresa de todos,
    un modelo descontinuado y olvidado resultó haber sido la primera Computadora
    Personal,
    que inclusive precedió a la Altair.

    La Kenbak 1, fué fabricada en
    1971 por John Blankenbaker de la Kenbak Corporation
    de Los Angeles, vale decir 4 años antes que la Altair
    fuese lanzada al mercado. Esta PC fue dirigido al mercado educacional y contaba
    con apenas 256 bytes (no kilobytes) de memoria
    Ram
    y su programación se realizaba por medio de palanquillas (switches).

    Solamente
    se comercializaron 40 equipos al costo de 750 dólares.

    1973
    Los discos Winchister

    1973:
    Los discos
    duros Winchester son introducidos por IBM en los modelos 3340. Estos dispositivos
    de almacenameinto se convierten en el estándar de la industria. Provisto de
    un pequeño cabezal de lectura/escritura
    con un sistema de aire que le permite movilizarse muy cerca de la superficie
    del disco de una película de 18 millonésimas de pulgada de ancho.

    El
    3340 duplica la densidad
    de los discos IBM cercano a los 1.7 millones de bits per pulgada cuadrada.

    1974
    8080, el primer CPU
    de Intel

    La
    verdadera industria de la computación, en todos los aspectos, empezó en 1974
    cuando Intel Corporation presentó su CPU (Unidad
    Central de Procesos)
    compuesto por un microchip de circuito integrado
    denominado 8080.

    Este
    contenía 4,500 transistores y podía manejar 64k de
    memoria aleatoria o RAM a través de un bus
    de datos de 8 bits. El 8080 fué el cerebro de la primera computadora personal
    Mits Altair, la cual promovió un gran interés
    en hogares y pequeños negocios a partir de 1975.

    1975
    La Altair 8800 producida por Micro Instrumentation Telemetry Systems

    La primera computadora personal comercial fue la Altair 8800 fabricada
    por la empresa MITS en 1975, diseñada por Ed Roberts y Bill Yates.

    El
    primer modelo de estas computadoras no contaba con monitor
    ni teclado,
    tan sólo con luces LED y pequeñas palancas o switches para facilitar la programación.
    La información era almacenada en cassettes de las radio grabadoras y era visualizada
    en los aparatos de televisión.

    Su
    costo era de $395.00 con una memoria de 256
    bytes.

    1975
    Fundación de Microsoft

    En
    1975 William Henry Gates y Paul Allen forman
    Microsoft, en la ciudad de Albuquerque, Nuevo
    México, debido a que la sede de la MITS estaba en esa ciudad. Microsoft
    fué el proveedor de la versión del lenguaje BASIC para la computadora personal
    MITS Altair.

    Un
    par de años antes estos dos amigos de la Universidad de Harvard habían fundado
    TRAF-O-DATA una pequeña empresa que se encargó de desarrollar un software para
    la administración del tráfico en la ciudad de Seattle. William Gates estudió
    Economía pero abandonó sus estudios para incursionar en el desarrollo de software
    y los negocios.

    Podemos
    elegir a 1977 como el año del despegue de la computación personal con la aparición
    en el mercado de varios modelos de este tipo de máquinas. Estuvieron a la venta
    equipos tales como: Commodore (la cual utilizaba un televisor como monitor),
    un modelo de Radio Shack, Atari y por supuesto la de mayor éxito la Apple II
    de Woznizk y Jobs. Junto con estas máquinas aparece uno de los primeros sistemas
    operativos el CP/M diseñado por la Digital Research.

    1975
    CM/P, el primer sistema operativo estándar

    Gary
    Kildall y John Torode
    fundan en 1975 la Digital
    Research que ingresa exitosamente al mercado con su sistema operativo
    CPM. (Control Program for Microcomputers) escrito por Gary Kildall para las
    computadoras basadas en el microchip 8080 y las Z80 y que fuera muy popular
    en los finales de la década de los 70, pero con la aparición del MS-DOS
    virtualmente desapareció del mercado.

    Gary
    Kildall fué el creador del CP/M,
    primer sistema operativo estándar de la industria. Su vida está llena de anécdotas
    y colorido que forman parte del folclore, que unidos a sus inventos lo hacen
    ocupar un sitial de privilegio en la era de la computación.

    Siendo
    estudiante de secundaria, en su ciudad natal Seattle, estado de Washington,
    deseó convertirse en profesor de matemáticas y apenas concluido sus estudios
    llegó a enseñar en el Kildall College
    of Nautical Knowledge, de propiedad
    de su familia
    y que fuera fundado por su abuelo en 1924.

    Luego
    ingresó a la Universidad de Chicago y muy pronto se casó con su novia de la
    secundaria Dorothy McEwen,
    lo cual lo transformó en un estudiante aplicado, dejando atrás los años de rendimiento
    mediocre en sus notas estudios, los carros de carrera y las travesuras de la
    adolescencia.

    Estando
    en la facultad de matemáticas se interesó por las computadoras y al terminar
    su bachillerato decidió obtener una maestría en Ciencias de la Computación.
    Sin embargo ocurrió un incidente. Fué enrolado en la reserva de la Marina de
    Guerra de su país y se le dió a escoger entre ir a pelear en la guerra de Vietnam
    o dictar clases en la Naval Postgraduate School in
    Monterey, estado de California.

    La
    respuesta a la propuesta de la Marina de Guerra fué obvia y viajó a California.
    Fué en Monterrey que Gary creó el CP/M, cuyas siglas inicialmente se dieron
    para el Control Program Monitor,
    para posteriormente cambiarlo a Computer Program Monitor. Por el contrario de
    cualquier sistema operativo desarrollado antes o después, el CP/M no fué el
    resultado de investigación y desarrollo de un equipo de ingenieros sino la inventiva
    y el trabajo de un sólo hombre. Aunque su sistema operativo resultó ser un buen
    producto, por muchas razones técnicas el CP/M fué lanzado al mercado apenas
    un año antes de la aparición de las primeras micro computadoras comerciales.

    Gary
    Kildall falleció en 1994, debido a un trágico accidente automovilístico.

    Hechos
    notables

    La
    primera generación de computadoras personales, o microcomputadoras, como fueran
    renombradas porteriormente, usaron chips tales como el 8008, 8080, Zilog Z80
    y el Motorola 6800.

    El
    primer número de la revista
    BYTE es publicado y meses después la cadena de tiendas BYTE SHOP COMPUTER empieza
    a crecer ráudamente. En 1976 IMSAI había comenzado a despachar las primeras
    computadoras en serie. La revista
    del Dr. DOBBS comienza a editarse y se celebra la primera conferencia
    mundial de ALTAIR.

    Bill
    Gates escribe su Carta abierta
    a los hobistas, la cual habla de la pirateria
    de software (su versión de lenguaje Basic es copiado ilegalmente por la mayoria
    de usuarios).

    1976
    Los dos Steven y la Apple Computer

    Steven Wozniak y Steven Jobs fueron amigos desde la escuela
    secundaria y ambos se habían interesado mucho en electrónica y eran considerados
    por sus compañeros como personas controvertidas. Después de su graduación se mantuvieron
    en contacto y ambos consiguieron empleos en corporaciones de Silicon Valley. (Wozniak
    trabajó en Hewlett-Packard y Jobs en Atari).

    Wozniak
    se había dedicado un buen tiempo al diseño de computadoras y finalmente en 1976,
    construyó la que se convertiría en la Apple I.
    Steven Jobs con una visión futurista presionó a Wozniak para tratar de vender
    los equipos recién inventados y el 1o de Abril de 1976 nació Apple
    Computer.

    A
    pesar de la gran novedad que causó su presentación, no fué muy aceptada. En
    1977, con el lanzamiento de la Apple II la compañia
    recién empezó a imponerse en el mercado norteamericano.

    Al
    siguiente año lanzaron la Apple Disk II, la
    primera disquetera y en 1980 la compañia fundada por Jobs y Wozniak ya contaba
    con varios miles de empleados. Emerge una forma de distribución masiva de software,
    a precios
    mas acequibles

    1977
    La TRS-80 de Tandy/Radio Shack

    El
    primer modelo de esta computadora fué vendido el 3 de Agosto de 1977 por la
    suma de US $ 599.95 con 4k de memoria, pero muy pronto subió a 16k con el modelo
    de Nivel II y al cual se le agregó un teclado
    y posibilidad de expansión de memoria a 32 k. El microprocesador empleado fué
    el Z-80 de 1.77 Mhz, con sistema operativo BASIC grabado en un chip de 12k de
    memoria
    ROM. Se le podía agregar perifericos tales como un televisor de 12",
    casetera o un diskdrive de 89 o 102k, impresora con conexión RS-232 y hasta
    un sintetizador de voz. Esta computadora fué una

    de las más populares de la época.

    1978
    el microprocesador Intel 8086

    En
    1978 se produce un evento importante, la fabricación del microprocesador Intel
    8086 el cual provocó una demanda
    masiva y motivó a la IBM a crear su flamante División de Computadoras Personales.

    El
    éxito de ventas
    alcanzado, hizo que Intel comenzara a figurar en el ranking de las 500 empresas
    más grandes del mundo, tal como lo publicara la revista FORTUNE 500 de Malcom
    Forbes, "la empresa No. 1 de
    las Exitosas de los Negocios de los 70s"

    Un
    microprocesador de la misma familia el 8088,
    utilizaría la IBM en su primera PC.

    En
    el mes de Julio de ese mismo año la revista Radio Electronics
    publica un interesante artículo, con diagramas
    y planos enseñando a construir la computadora Mark
    8, basada en el microprocesador 8088
    y a la que simplemente denominan "Su mini computadora personal". Muchas
    personas en los Estados Unidos fabricaron computadoras personales en sus propios
    hogares, lo cual incentivó aún más su uso.

    Steven
    Jobs visita los Laboratorios SPARC de la Xerox y obtiene ideas para desarrollar
    la Macintosh. MicroPro, una de las primeras grandes casas de software de la
    época lanza su pocesador de textos WORDSTAR. El sistema operativo de la época
    es el CPM-86.

    La
    hoja de cáculos VisiCalc se convierte en software promotor de ventas
    de las computadoras personales provocando una verdadera revolución y record
    de ventas. VisiCalc resuelve en forma muy sencilla los problemas matemáticos
    de los usuarios. De allí su nombre 'Visual Calculator'. Muchísimas computadoras
    Apple se vendieron con el único propósito de correr el VisiCalc. Empieza la
    revolución del software.

    Todos
    estos grandes éxitos despertaron en la IBM la ambición de ingresar al mercado
    de las computadoras personales y participar en las suculentas ganacias que obtenian
    empresas como Apple, Tandy/Radio Shack, Commodore y hasta Spectrum de Inglaterra.

    Caben
    mencionar los siguientes hechos cronológicos:

    1971:
    Computer Automation introduce la Alpha-16.

    1971:
    IBM presenta las computadoras mainframes 370/135 y 370/195.

    1971:
    NCR preenta el modelo Century 50.

    1971:
    Sperry-Rand toma la línea de computadoras de la RCA.

    1972:
    La primera calculadora de bolsillo es fabricada por Jack Kilby, Jerry Merryman,
    y Jim VanTassel de Texas Instruments.

    1972:
    Gary Kildall escribe el PL/1, primer lenguaje de programación para el microprocesador
    Intel 4004.

    1973:
    IBM enfrenta un juicio de Control Data, tremnado por vender el Service Bureau
    Corporation (SBC) a Control Data.

    1973:
    El lenguje PROLOG es desarrollado por Alain Comerauer en la Universidad de Marslla-Luminy,
    Francia.

    1974:
    Zilog es formada para fabricar microprocesadores.

    1975:
    Se forma el Homebrew Computer Club, considerado el primer grupo de usuarios
    de computadoras personales.

    1976:
    Commodore International construye la Pet 2001
    con nuevo microprocesador 6502. La Pet fué la primera computadora personal con
    una pantalla incorporada, con 4k de memoria
    Ram, expandible a 32 K y un programa BASIC en memoria
    ROM (Read Only memory).

    Los
    programas se almacenaban en cassettes y su precio
    de venta
    fué de US $ 595 para el modelo de 4k y US $ 795 para el de 8k. Posteriormenta
    Commodore International comparía la MOS Technology, que fabricaba los chips
    6502.

    1976:
    NEC System 800 y 900 de propósito general son presentados.

    1977:
    DEC introduce su primera superminicomputadora de 32 bits, la VAX-11/780.

    1978:
    Se celebra la primera feria de COMDEX.

    1979:
    El lenguaje Ada es desarrollado por un equipo dirigido por Jean Ichbiah en CII-Honeywell
    Bull (Francia).

    1980:
    Commodore Inc. presenta la VIC-20, un modelo
    de computadora personal muy barata, dirigida a los principiantes y hobbistas.

    Usaba
    el microprocesador 6502 con una memoria de apenas 5k de Ram. El sistema estaba
    diseñado para ser conectado a un televisor y los programas se almacenaban en
    una casetera, la cual debía ser conectada a la VIC-20.

    1980:
    Control Data Corporation introduce el supercomputador Cyber 205.

    1981:
    La Commodore 64 reemplazó a la VIC-20 y se vendió
    al igual que su predecesora, a muy bajo precio. Este modelo empleó un microprocesador
    ligeramente mejorado al 6502 y que costaba US $ 20 al por mayor.

    La
    Commodore 64 usó el chip 6510 que permitía una capacidad de procesamiento de
    64k y podía integrarse a un diskdrive fabricado por la misma empresa, para ejecutar
    los programas y el almacenamiento de la información..

    (
    http://members.es.tripod.de/kelsen/marco.html
    )

     

    En
    1984, la compañía Apple lanzó una máquina que introduciría nuevamente una revolución:
    el Macintosh. Éste era el sucesor
    de un modelo llamado "Lisa" -pero que no tuvo aceptación debido a
    su costo y escasa capacidad- en que se introducía por primera vez el concepto
    de interfaz gráfica, la analogía
    del "escritorio" y

    un
    nuevo periférico: el "mouse"
    o ratón, como herramienta para controlar al computador.

    Existen
    además supercomputadores que en vez de funcionar a base de un sólo microprocesador
    utilizan miles de éstos, pudiendo así hacer un enorme número de operaciones
    simultáneas, llegando a los doscientos millones por segundo.

    El
    primer modelo fue desarrollado por Cray y comercializado hacia 1984. Realizaba
    80 millones de operaciones por segundo.

    En
    1986, Floating Point Systems, compañía competidora de la Cray Research, lanzó
    su "T-40.000", con 16.384 microprocesadores coordinados por "transputadores",
    el cual es capaz de procesar a una velocidad de 262 millones de operaciones
    en punto flotante por segundo (Mflops). Hoy, algunos supercomputadores ocupan
    hasta 65.000 microprocesadores.

    En
    1991, un equipo de investigadores de IBM desarrolló el aparato más pequeño jamás
    creado por el hombre: un interruptor que mide el tamaño de un átomo. Es capaz
    de controlar el flujo de corriente eléctrica desplazando un átomo de xenón entre
    dos diminutos electrodos. Esta proeza es de suma importancia para el desarrollo
    futuro de computadores enanos ya que los componentes con dos posibles estados
    constituyen la base de los procesadores.

    Este
    mismo año, Digital Equipment (DEC) lanzó al mercado una familia de computadores
    basados en arquitecturas de paralelismo masivo: las máquinas van en un rango
    desde los 1.024 hasta los 16.384 microprocesadores que trabajan en forma paralela.
    En su configuración máxima (por un costo de unos 1.500.000 dólares) son capaces
    de realizar 26 mil millones de instrucciones básicas por segundo (26.000 MIPS).

    La
    firma NCR exhibió en Chile
    su nuevo microcomputador sin teclado, lanzado en diciembre de 1991 en los Estados
    Unidos. Se trata del "Notepad NCR 3125" que consiste en una caja del
    tamaño de una hoja carta
    y de 3 cm de espesor y un lápiz inalámbrico especial. Pesa menos de 2 kg, por
    lo cual puede ser usado fácilmente como si fuese un bloc de apuntes. Tiene una
    pantalla sensible a los pulsos electrónicos enviados por el lápiz. Así, el usuario
    accede al computador mediante símbolos, gráficos y escritura
    manual.
    Funciona con software de procesamiento de textos y bases
    de datos, gráfica, fax
    y comunicación con otro comptador por teléfono.

    En
    1993 mediante la utilización de un laser
    de luz
    azul, científicos de IBM han logrado grabar y leer datos en un disco óptico
    a una densidad de 2,5 Gigabits (2.500 millones de bits) por pulgada cuadrada
    y a una velocidad de 2 millones de bits por segundo, lo cual constituye un nuevo
    récord. Con esta densidad se podría almacenar 6.500 Mb en discos de 5,25"
    de doble cara. Esta tecnología podría comercializarse dentro de 3 a 5 años.

    En
    noviembre de 1994, Nintendo anunció el primer juego
    de "realidad virtual" (gráfica tridimensional por la cual el usuario
    puede desplazarse de modo ficticio), el "Virtual Boy", con un costo
    de 199 dólares. (El primer proyecto
    de este tipo le había costado 200.000 dólares a la NASA). Meses después, Sony
    lanzó por 200 dólares su "Playstation", una "estación" de
    juego
    con una capacidad 1.000MIPS (millones de instrucciones por segundo), mientras
    el procesador Intel -de muchos computadores- a esa fecha sólo permitía 100MIPS.

    Las novedades
    de 1996

    EXPLOTA
    la ciudad de Hannover. Alberga a 500 mil habitantes y al recinto ferial más
    imponente de Alemania. Recibe a 600 mil forasteros en la CeBIT '96, la gran
    exhibición de informática y comunicaciones
    del mundo.

     

    Junto
    a 9 mil periodistas de todo el mundo, Siglo XXI participó en los 7 días feriales.

     

    Lo
    más importante: la inteligencia,
    el software de los fierros. Hangares y hangares de humanos concentrando su experiencia.
    Programas para restaurantes, coleccionistas de estampillas, sastrerías, carpinteros,
    cirujanos, campañas electorales, para trabajar desde casa, para hablar por teléfono.

    Muchos
    paquetes de software envueltos en celofán y brillos. Los publicistas recurren
    a todo: laptops ante escenas lascivas; cajas de Novell
    entre torrejas de tomate, hojas de lechuga y trozos de pan; mouses en sillas
    de playa. Mucha conversa, cerveza
    y tarjeta. Así marcha el negocio.

    En
    un pabellón enorme, como un aeropuerto internacional, mil habitáculos con creadores
    de ideas geniales. Todas, a disposición de quien quiera distribuirlas, comprarlas,
    aprovecharlas.

    En
    otra nave, tan grande como una catedral, investigadores universitarios muestran
    sus trabajos. P ej, el Dr H. Müller de la U de Dortmund, que creó un software
    para reconocer la postura de la mano, quiere reemplazar con él al guante alambrado
    que se usa en realidad
    virtual. Lo bautizó Zyklop. «En 1997 presentaremos electrodomésticos como
    un videograbador, un equipo de audio, un abrepuertas, que obedezcan a gestos.
    El sistema ofrecerá libertad
    y nuevas posibilidades a los ancianos y los minusválidos».

    A
    propósito, el Dr Herbert W. Franke, de la U de Munich, avanza en un programa
    que lee la información del computador para los ciegos, pero no como robot, sino
    que con entonación.

    -No
    nos basamos en las sílabas, sino que en el sonido
    de las consonantes y las vocales y en las intenciones. Es un asunto complejo.
    Por ahora, funciona en alemán; tiene que mejorar.

    Más
    allá, una escuela
    de medicina
    demuestra una neurocirugía hecha desde otra ciudad; el paciente es plástico.
    El talento universitario supura generosidad, ingenio y futuro. Por ahí irá la
    cosa.

    Y
    en los pabellones más comerciales, los grandes de programas de computación se
    baten a duelo o anuncian alianzas.

    Lo
    más impactante en software es el
    trabajo de un programador audaz que ya vendió su producto a Pro Sieben,
    canal de TV que está cambiando la pantalla alemana.

     

     

    CHORRO
    SERVICIAL

    Aparecen
    los primeros computadores- Internet, el Pippen, japonés, como consola de juegos,
    enchufado a la red
    para obtener su información. Todavía no se vende. El teclado es opcional, para
    los que quieran pedir más datos. Es Apple. Los de la manzana también ofrecen
    un nuevo Newton,
    la tableta sin teclado que ahora sí reconoce mejor la escritura y que trae más
    programas para sus probables usuarios: trabajadores móviles, pequeños empresarios,
    médicos, diseñadores. Se enchufa a un celular y listo.

    La
    operación móvil cunde. En Alemania ya resolvieron lo que nuestro subsecretario
    de Telecomunicaciones
    estudia tanto: la comunicación PCS (sistema de comunicación personal de formato
    digital). Allá, el matrimonio
    de comunicaciones
    e informática anda tan bien como acá el lomo con la palta.

    Así,
    puede aparecer el portentoso Nokia 9000, un teléfono por su frontis, que por
    atrás se destapa y deja ver una pantalla y un teclado. Total: conexión celular
    con la oficina, con la base
    de datos, con el computador central, con el correo electrónico, con la Internet
    … literalmente en el bolsillo. Todavía con pantalla en blanco y verde, a US$2.000.

    Aumenta
    tanto el uso de líneas telefónicas para transmitir datos, que en Europa estiman
    que el 10% de la gente con celular para el año 2000 usará su conexión sólo para
    datos, no para voz.

    Y
    las tentaciones abundan. Hewlett Packard, también aliada con Nokia, muestra
    su OmniGo 700, 2 cajitas para disparar planillas de cálculo, faxes, correo desde
    cualquier lugar: matrimonio
    de computación y comunicación. En Chile
    esta joyita HP no funcionará, claro, mientras no tengamos PCS.

    ABRAN
    PASO A LO VISUAL

    Por
    la vista entra: videoconferencias desde el computador portátil, por celular;
    Sony divide una pantalla en 4 para que sendos ejecutivos puedan discutir al
    mismo tiempo; excitante fidelidad en reproducción, la impresión con chorros
    de tinta da origen a un arte
    de precisión: las nuevas impresoras
    Epson, Canon, Hewlett Packard, Apple, más que duplican la fidelidad de sus predecesoras,
    a precios
    convenientes.

    En
    ese rubro, algo nuevo. Citizen se aparta de los chorros de tinta y presenta
    su nueva impresora ¡de tinta sólida! Usa una pasta que consigue muy buenos resultados1
    y aumenta la cantidad de colores
    aplicables según el gusto del autor y la disponibilidad de los fabricantes.
    Hasta dorados y plateados vimos aplicar sobre un papel satinado tamaño carta.
    Un atrevimiento que puede traer oro. Y por doquier, cámaras fotográficas digitales.
    ¿Qué son? Algo que debe preocupar a Kodak, porque no ocupan rollo. La Minolta,
    p ej, tiene 3 CCDs o placas que registran los colores
    primarios. La foto resultante muestra 1.528 pixeles en la horizontal y 1.146
    en la vertical. Se meten en un computador, y de ahí, cualquier cosa puede ocurrir.
    Naturalmente, la cámara se puede borrar y está lista para tomar nuevas fotos.
    A este nivel, todavía vale 2 o 3 veces una Minolta tradicional.

    Más
    económicas, las Polaroid, Sony, Chinon y Fuji compiten en este territorio donde
    ya estaban Kodak y Apple. Pero las nuevas cámaras dan importantes saltos en
    resolución y precio. Aunque, como nos dijo Mr R. Campbell, de Sony, «reconocemos
    que la calidad
    de la película química es inalcanzable… todavía.»

    Para
    registrar lo visual, bajan de precio los escaners. Entre todas las soluciones,
    destacó uno que ya está en Chile, el que Compaq incluyó sobre el teclado de
    su computador Deskpro M21002.

    ALMACENES
    GIGANTES

    Lo
    visual obliga a aumentar las capacidades de las redes
    que comunican a los computadores, y presiona sobre la capacidad de almacenaje.

    En
    CeBIT estiman que cada año la información digitalizada en el mundo se duplica.

    Por
    suerte los discos
    duros más rápidos, más capaces, más pequeños y más baratos alegran el corazón
    del computador sobrecargado. Pero hay más. Iomega cantó victorias en CeBIT por
    haber colocado ya más de un millón de discos Zip, económico sistema capaz de
    almacenar hasta 100 megabytes.

    3M
    le salió al paso (Siglo XXI 287) con un disco para 120 Mb con mayor velocidad
    de transferencia de información y que alega valer menos que el Zip por megabyte.

    De
    esta batalla por almacenar más sólo podemos ganar. Irrumpen los grabadores de
    CD-ROMs.
    El más barato, de HP, vale US$1.300. Sony ofrece uno ya no de doble velocidad
    sino de 8 veces la original. Y aparecen los prototipos de CD-ROMs
    regrabables. Para fines de siglo tendremos CDs en capas, para almacenar más
    de 5 gigabytes de información. Los necesitaremos.

     

     

    LOS
    TOPPINS ALEMANES

    Para
    un programa infantil de TV, Olaf Schrim ya vendió su Vierte Art, un sistema
    que corre en un Silicon Graphics y que reconoce expresiones faciales o movimientos
    corporales.

    El
    canal de TV Pro Sieben transmite desde hace 15 días el nuevo programa Brainy.
    Un mimo se mueve en una sala lejos del estudio principal. Está alambrado, cada
    movimiento
    de músculo se transmite al computador que lo comunica a un modelo virtual, el
    personaje Brainy, que repite en tiempo real y al aire, los movimientos del mimo.

    En
    CeBIT, Schrim mostró su reproductor facial. Una cámara captaba los movimientos
    de 37 puntos reflectantes en el rostro de un actor y los comunicaba a un Silicon
    Graphics. Este luego los aplicaba en una cara de un político, p ej Konrad Adenauer,
    que así cobraba vida. Lo visual cunde; lo visto en CeBIT importa.

     

    Extracto
    del artículo de Nicolás Luco: "LA GRAN FERIA", Siglo XXI (El Mercurio),
    n.289, 18/4/1996.

     

    ¿Una
    supercomputadora por 1.000 dólares?

    Por
    MARK BROWNSTEIN

    (IDG)
    — Dentro de 18 meses y por sólo 1.000 dólares podrá tener en su escritorio
    el equivalente actual a una supercomputadora. La unidad de proceso central (CPU),
    elemento clave en los ordenadores personales de hoy, podría ser un componente
    innecesario en las computadoras de alto rendimiento del mañana.

    La
    nueva máquina será capaz de procesar 100.000 millones de instrucciones por segundo,
    según Kent Gilson, técnico de la empresa Star Bridge Systems. Representantes
    de la compañía debatieron esta semana sus planes para una nueva computadora
    personal de altas prestaciones,
    mientras anunciaban la HAL-300GrW1, una "hipercomputadora" que se
    dice es 60.000 veces más rápida que un procesador Pentium a 350 megahertzios,
    y varias veces más veloz que la Pacific Blue, la supercomputadora de IBM (la
    prueba utilizada para medir el desempeño de HAL fue diferente a la empleada
    para probar la Pacific Blue, por lo que es difícil comparar los dos aparatos).

    El
    nuevo ordenador de 1.000 dólares cumplirá muchas de las funciones
    de una supercomputadora, como reconocimiento de voz, lenguaje natural de procesamiento
    y presentaciones holográficas, añadió. Además, Gilson dice, este super-ordenador
    "podrá utilizar aplicaciones de PC con un emulador".

    HAL
    en primer lugar

    Aunque
    Gilson asegura que el hardware para tales computadoras personales ya está preparado,
    y que Star Bridge Systems ya ha completado el lenguaje de programación, llamado
    Viva, los esfuerzos de la compañía se centran en primer lugar en su línea de
    hipercomputadoras de altas prestaciones HAL.

    El
    HAL-300GrW1 tiene un precio de unos 26 millones de dólares, por lo que no hace
    falta una hipercomputadora para entender por qué Star Bridge Systems ha decidido
    dedicar su atención a la línea HAL.

    "Somos
    una empresa pequeña. Si saliéramos al mercado con un ordenador personal, no
    podríamos vender suficiente (para financiarnos), pero podemos vender centenares
    al año de la gama alta", explica Gilson.

    En
    la terminología informática actual, la arquitectura
    que ha desarrollado Star Bridge Systems es un "multiprocesador asimétrico,
    masivamente paralelo, ultra-acoplado". Se basa en un tipo de procesador
    conocido como FPGA, señala Gilson.

    Los
    chips FPGA pueden programarse sobre la marcha, por lo que su configuración puede
    cambiarse para llevar a cabo la tarea particular de cada momento con mayor eficiencia.

    Además,
    pueden ser cambiados miles de veces por segundo, por lo que, en esencia, un
    FPGA puede convertirse en una CPU especialmente diseñada para realizar una tarea
    precisa justo cuando necesite la nueva arquitectura
    de proceso.

    La
    unidad de proceso central (CPU) tradicional, como contraste, tiene una serie
    de instrucciones fijas grabadas en silicio. Las instrucciones de programación
    se escriben para trabajar en función de esa serie de instrucciones, y están
    limitadas por las capacidades incorporadas al procesador.

    Supercomputadora
    de maleta

    En
    una sesión de promoción, Gilson presumió de lo que llama "HAL Junior",
    un modelo que cabe en una maleta y realiza 640.000 millones de instrucciones
    por segundo.

    La
    compañía ha delineado una serie de sistemas cuyo desempeño va desde la HAL-10GrW1,
    capaz de llevar a cabo 10.000 millones de operaciones de coma flotante por segundo,
    hasta la HAL-100TrW1, que realiza 100 billones de operaciones de coma flotante
    por segundo.

    La
    compañía también vende productos
    de proceso de señales (conmutadores y routers) basados en su tecnología HAL.
    Estos dispositivos están diseñados para supercomputadoras científicas y telecomunicaciones.

    Entretanto,
    representantes de Star Bridge Systems dialogan con grandes compañías que han
    expresado su interés en HAL, y que indudablemente se preguntan si el sistema
    puede ofrecer las prestaciones prometidas.

    "Al
    final, la informática reconfigurable (un término acuñado por Gilson que se refiere
    a la tecnología en la que se basa la hipercomputadora) invadirá todos los sistemas
    de información porque es más rápida, más barata y mejor", predijo Gilson.

     

    Copyright
    1999 Cable News Network, Inc.

     

    El
    futuro del computador personal

    Según
    la División de Investigación y Desarrollo de Apple Computer, el computador personal
    de los próximos años bien podría ser una combinación de aparato de video,
    televisor, radio, video-teléfono y fax
    junto con la capacidad (aumentada) del microcomputador de hoy. De hecho, la
    Apple exhibe desde hace varios años un video que muestra distintos aspectos
    y funciones de esta máquina (por ahora al estado de maqueta) que ha llamado
    "Knowledge Navigator" (navegante del conocimiento),
    poniendo así el énfasis en su capacidad de administrar comunicaciones y manejar
    documentos
    "hipermediales" (es decir multimediales con formato de hipertexto),
    como los que hoy viajan por la World Wide
    Web.

    Es evidente que lo que conocemos hoy, con la expansión de Internet y el desarrollo
    de las redes,
    confirma una intuición que surgió hace una decena de años. La transformación
    en las redes y los servicios telefónicos así como en los servicios de TV-Cable
    auguran cada vez con mayor probabilidad
    el desarrollo de una suerte de "compunicación" (computación unida
    íntimamente a comunicación) y la creación de un aparato integrado para todos
    los servicios implicados.

    La
    -¿frustrada?- "Quinta Generación"

    Aunque
    no existe formalmente una "cuarta generación" de computadores, mucho
    se habló, en la década de los 80, de proyectos
    de "quinta generación". Ello corresponde a una batalla tecnológica
    para desarrollar los primeros computadores capaces de interactuar "inteligentemente"
    con el ser humano.

    Todo
    empezó en 1981, durante una "Conferencia Internacional de Sistemas de Computación
    de Quinta Generación" celebrada en Tokio, donde Japón dió a conocer un
    gigantesco programa para el desarrollo de una nueva tecnología, en que participarían
    el gobierno, las universidades y las empresas más avanzadas y poderosas. Se
    fijó como meta producir en el plazo de 10 años máquinas capaces de realizar
    mil millones de inferencias lógicas por segundo (LIPS). La LIPS es una nueva unidad de medida de velocidad, referida a una habilidad
    de la inteligencia
    artificial: la del razonamiento lógico. Una LIPS, a su vez, requiere de
    100 a 1000 operaciones del sistema anterior de medición (IPS: instrucciones
    por segundo), por lo cual estaríamos ante máquinas capaces de más de cien mil
    millones de operaciones básicas por segundo.

    Aunque
    Europa y Estados Unidos recogieron el guante y pusieron también a sus expertos
    a trabajar en programas semejantes ("Programa Estratégico de Computación
    y Supervivencia" en Estados Unidos y "Programa Estratégico Europeo
    para la Investigación en Tecnología de la Información – ESPRIT" en Europa).

    Pero
    hasta hoy, no se han visto los resultados esperados ni han nacido los "computadores
    inteligentes" con los cuales se esperaba contar en 1992, aunque se hayan
    gastado centenares de miles de dólares. El proyecto japonés de Quinta Generación
    se considera ahora fracasado, pero ha sido reemplazado por un proyecto de "Sexta
    Generación
    " cuyo propósito es lograr capacidades computacionales semejantes
    a las del cerebro humano hacia el año 2002. La fecha no parece muy realista,
    a pesar de que los investigadores de este país han avanzado mucho en la investigación
    de nuevas arquitecturas como las redes
    neuronales y los biochips (ver abajo).

    Las
    necesidades de los usuarios y los descubrimientos parecen, por ahora, llevar
    por otros derroteros: nadie se esperaba el éxito de Internet y el crecimiento
    explosivo de la World Wide Web . La
    idea de que una
    red podría tener o generar algún tipo de inteligencia
    propia ("La inteligencia está en la red"
    dicen algunos) está empezando a tomar cuerpo y a orientar otro tipo de investigación.

    Nuevas
    arquitecturas

    Transputer

    El
    "transputer" parece ser el primer componente electrónico que permitiría
    a las máquinas lograr el ansiado paralelismo masivo en sus operaciones. Equivaldría
    a lo que es actualmente el transistor para las máquinas electrónicas en general,
    o sea un componente básico que puede ser fabricado en forma masiva y económica.
    El primero fue creado por la firma inglesia Inmos y presentado en la Feria Internacional
    de Componentes de 1983 en París.

    Cada
    transputer reúne en un mismo chip varias unidades de cálculo, una memoria (2Kb
    en el primer modelo fabricado) y mútiples conexiones que permiten un intercambio
    rápido con otros transputers (4 en el primer modelo) y que pueden operar todos
    en forma simultánea. Se obtuvo así una velocidad secuencial de 10 Mips (diez
    millones de instrucciones por segundo), ampliamente sobrepasada en los modelos
    subsiguientes.

    Para
    su uso ha sido construído especialmente un lenguaje de alto nivel orientado
    al aprovechamiento del paralelismo, el OCCAM, aunque puede ser programado como
    un procesador normal con lenguajes existentes (Pascal, Fortran, C, Prolog, etc.).
    El concepto de base del Occam – y del procesamiento mediante transputers – consiste
    en considerar entidades que intercambian información con su entorno, formado
    de otras entidades del mismo tipo, a través de canales unidireccionales que
    las unen 2 a 2. Estas entidades pueden ser conjuntos
    de instrucciones, procesos o representa-ciones de procesos, pudiendo constituirse
    diversos niveles de complejidad en forma modular.

    Computador
    celular

    El
    computador celular se basa en la idea de los mecanismos de reproducción de las
    células vivas. Fue concebido por John von Neumann, al igual que la estructura
    de los computadores actuales, y perfeccionado por Edgar Codd y Christopher Langton.

    Para
    entender su estructura y funcionamiento, conviene imaginar una hoja cuadriculada
    donde cada pequeño cuadro corresponde a una mínima máquina procesadora ("célula")
    que "se informa" del estado de sus vecinas y reacciona de acuerdo
    a esta información. Todas las células son estructuralmente idénticas y operan
    de la misma manera.

    Para
    operar, se fija el
    estado inicial de cada célula (de entre un número a determinar) y se determina
    una "regla de transición" común para todas. Luego se pone en marcho
    un reloj que sincroniza los cambios de estado: a cada "top" del reloj,
    todas las células cambian de estado conforme al estado de sus vecinas.

    Una
    de las características de este tipo de estructura y modo de operación es la
    posibilidad de diseñar configuraciones iniciales que se autorreproducen (de
    ahí el nombre de "autómatas autorreproductores" que se da también
    a esta arquitectura) o reglas que lleven a la reproducción del diseño original,
    lo cual constituye un instrumento de alta importancia en física teórica y modelización
    matemática.

    El
    primer circuito simulador de autómata celular fue construído en 1981 en el MIT
    (Instituto Tecnológico de Massachusetts). Su versión comercial puede ser conectada
    a un IBM-PC, dándole la potencia
    de un supercomputador. En 1985 se inició la comercialización de un chip de arquitectura
    celular (el "GAPP") que contenía 72 procesadores (células). Todos
    ellos reciben y ejecutan simultáneamente una instrucción recibida de un controlador
    externo, pero modifican su estado en función del estado de sus 4 vecinos inmediatos.

    MaRS

    Una
    vía de desarrollo diferente es la de las "MAQUINAS DE REDUCCION SIMBOLICA"
    ("MaRS"), cuyos procesadores en vez de estar basados en el procesamiento
    numérico están diseñados para manipular símbolos (como nombres de objetos o
    conceptos) y relaciones entre símbolos. Responden en forma directa a las exigencias
    de la inteligencia artificial y están destinadas a facilitar el procesamiento
    de conocimientos.

    Como
    lo hemos señalado, los computadores actuales son en esencia máquinas destinadas
    al cálculo (matemático y lógico). Su capacidad en el campo de la lógica booleana
    permite aplicaciones no matemáticas pero no se logran resultados tan buenos
    (rápidos) como con números, debido a su complejidad. Las máquinas de reducción
    están diseñadas para procesar más eficientemente programas funcionales o declarativos
    como los escritos en lenguaje Lisp o Prolog.

    El
    procesamiento simbólico se caracteriza por una gran variabilidad en la organización
    de los datos y en una baja previsibilidad del comportamiento
    de un programa. Se requiere un muy alto dinamismo en el uso de la memoria durante
    los procesos. Se descubrió que los principios de la lógica combinatoria permiten
    resolver a la vez este problema y facilitar la ejecución de programas funcionales.
    Se puede entender la "reducción simbólica" como el mecanismo por el
    cual se reemplaza una fórmula por su resultado, una vez calculado. La ejecución
    de un programa en una máquina MaRS sigue este principio con facilidad por cuanto
    su procesador funciona sobre la base de operadores combinatorios. Y es muy fácil
    recortar un programa en "trozos", reducidos simultáneamente por procesadores
    paralelos, lo cual permite acelerar aún más el procesamiento.

    La
    fabricación de un prototipo estaba prevista para 1989. Quedan por hacerse muchas
    pruebas
    y estudiar las posibilidades de sistemas modulares complejos (con varios núcleos
    MaRS entrelazados). Pero se ha descubierto desde entonces que aún tenemos que
    aprender mucho acerca de cómo programar en forma simbólica.

    Máquina
    neuronal

    La
    arquitectura neuronal intenta imitar de más cerca la estructura del cerebro
    y su forma de operar. Una máquina neuronal, se compone de elementos equivalentes
    a las neuronas y que imitan sus conexiones en r ed. En cuanto a la forma de
    operar, imita el proceso de aprendizaje
    relacionado con el cambio
    de estado de las conexiones entre las neuronas. De este modo, una máquina neuronal
    no se programa en la forma tradicional, sino que se ajusta progresivamente en
    función del uso (proceso de aprendizaje).

    La
    compañía Fujitsu fabricó en 1988 el primer chip neuronal, con 32 neuronas (1024
    conexiones). Por su parte, la Universidad de California (San Diego) anunció
    la fabricación de un prototipo electroóptico, mientas los laboratorios Bell,
    de la ATT, anunciaron un circuito con 256 neuronas y hasta 32.000 sinapsis.

    Un
    típico procesamiento y aprendizaje neuronal consiste en introducir repetidamente
    un texto
    a través de un scanner,
    hasta que la máquina sea capaz de reconocer todas las letras, incluso cuando
    algunas de ellas no son perfectamente nítidas (traduciendo así una imagen
    en una secuencia de caracteres de texto,
    en forma mucho más eficiente y exacta que con un computador tradicional).

     

    Nuevos
    componentes

    La
    miniaturización de los componentes electrónicos ha permitido aumentar la velocidad
    de operación al acortar las distancias. Pero está llegando a un punto (el nivel
    molecular) en que ya no es posible aumentar la velocidad por la vía de la miniaturización.

     

    Computador
    óptico

    Para
    evitar las dificultades que presentan los microcircuitos electrónicos hay un
    camino obvio: abandonar la electrónica. La luz (fotones) se desplaza mucho más
    rápido que los pulsos eléctricos (electrones), sin peligros de interferencia
    y sin necesidad de conductos aislantes (lo cual facilita los procesos paralelos).
    Así, la superioridad de la óptica es indiscutible. Por ello se han realizado
    ingentes esfuerzos para construir componentes que cumplieran las mismas funciones
    que los dispositivos que permiten el procesamiento electrónico, utilizando nuevos
    materiales
    que reaccionan de diversas maneras según la intensidad de luz que los afecte.
    Han sido pioneros Gibbs, MacCall y Venkatesan, de los laboratorios Bell (logrando
    construir el primer componente de funcionamiento binario -o "biestable
    óptico"- en 1976). Se espera contar con computadores ópticos completos
    en el 2030.

    Computador
    molecular

    Un
    grupo de investigadores de la Universidad de California (UCLA) y de los Laboratorios
    de Hewlett-Packard ha descubierto una forma de fabricación de una puerta lógica
    a partir de un tipo determinado de molécula. Agrupando unos pocos cables e interruptores,
    se unen un grupo de moléculas que trabajan de la misma forma que un procesador
    de silicio, pero en una escala
    molecular. De este modo, se puede conseguir el poder computacional de 100 estaciones
    de trabajo con el tamaño de un grano de arena.

    Con
    estos chips se podrían fabricar desde supercomputadoras del tamaño de un reloj
    de pulsera hasta instrumentos biomédicos que se introducirían en el cuerpo humano
    para ayudar al diagnóstico de enfermedades.

    Los
    primeros prototipos podrían estar listos en unos cuantos años y modelos comerciales
    que combinen la tecnología actual con la nueva podrían aparecer antes del 2010,
    cuando -según se estima- los procesadores de silicio podrían estar llegando
    a su límite de potencia.

    Computador
    cuántico

    El
    computador cuántico ha sido definido como un tipo de computador que utiliza
    la habilidad de los sistemas cuánticos, tales como conjuntos
    de átomos que se encuentran en el mismo estado a la vez. En teoría esta súper
    imposición permite a este tipo de computador hacer muchos diferentes cálculos
    al mismo tiempo. Esta capacidad permite desarrollar complejas ecuaciones,
    como factorizar integrales,
    a velocidades que no lo pueden permitir el computador convencional.

    En
    un computador cuántico la información no es almacenada en hileras de ceros y
    unos, como en el computador convencional, sino en series de estados mecánicos-cuánticos:
    tramas direcccionales de electrones, por ejemplo, u orientacion de polarización
    en fotones. En 1985, David Deutsch de la Universidad de Oxford señaló que las
    leyes de la física cuántica permitía a las partículas estar en más de un estado
    al mismo tiempo, haciendo ello posible que cada partícula de la CPU de un computador
    cuántico almacenara más de un bit de información.

    Investigadores
    de la Universidad de Notre-Dame (Indiana) confirmaron recientemente (1999) que
    se pueden manipular los electrones individualmente para construir circuitos
    elementales que gasten cantidades ínfimas de energía. Su trabajo abre el camino
    al mismo tiempo a la fabricación de nuevos componentes (chips) capaces de funcionar
    a velocidades de 10 a 100 veces mayores que las actuales.

    La
    base del nuevo sistema es el llamado "pozo cuántico", una trampa infinitesimal
    en la cual se puede encerrar un electrón. Los científicos han creado un célula
    cuadrada con cuatro pozos cuánticos, en la cual han introducido un par de electrones.
    Las fuerzas de repulsión provocan el desplazamiento de los electrones que encuentran
    su equilibrio
    cuando se ubican en los extremos de una diagonal. Así, una representará el
    estado 0 y la otra el estado 1, por lo cual una célula registrará un bit
    de información. Basta desplazar a un electrón para que el otro se acomode en
    la posición de equilibrio,
    y así cambiará del valor
    0 a 1 o inversamente. (En los transistores actuales, hay que desplazar miles
    de electrones).

    Los
    investigadores ya construyeron chips con múltiples células, capaces de ser utilizados
    para realizar las operaciones de lógica básicas en los computadores. Falta aún
    llegar a construir chips más complejos, capaces de contener y procesar todo
    lo que requiere un computador moderno. Y falta también poder obtener los mismos
    resultados a "temperatura
    ambiente",
    ya que el principal defecto actual del sistema es que requiere una temperatura
    próxima del 0 absoluto.
    (Fuente: Le Monde, 28.4.1999)

    Biochip

    En
    opinión de Minsky (uno de los creadores de la Inteligencia
    Artificial) y de los expertos del Santa Fe Institute (centro de estudio
    de la vida artificial), después del 2010 podría desaparecer paulatinamente la
    frontera entre lo natural y lo artificial, lo físico y lo biológico.

    Steen
    Rasmunsen (del Santa Fe Institute) está convencido de que la vida artificial
    pronto nacerá en los computadores a partir de experiencias bioquímicas, donde
    se mezclaría biotecnología e informática. Esto permitiría -entre otras cosas-
    crear insectos artificiales (medio robots, medio insectos) y el implante de
    chips en el ser humano, quizás hacia el 2050 . . . ¿con qué consecuencias?

    "En
    la oficina del científico Masuo Aizawa, del Intituto de Tecnología de Tokio,
    nada llama demasiado la atención, excepto una placa de vidrio que flota en un
    recipiente lleno de un líquido transparente. Se trata de un chip que parece
    salpicado con barro. Pero las apariencias engañan. Los grumos alargados del
    chip de Aizawa no son manchas, sino ¡células neurales vivas!, criadas en el
    precursor de un circuito electrónico-biológico: el primer paso hacia la construcción
    neurona
    por neurona,
    de un cerebro semiartificial.

    Cree
    que puede ser más fácil utilizar células vivas para construir máquinas inteligentes
    que imitar las funciones de éstas con tecnología de semiconductores,
    como se ha hecho tradicionalmente.

    En
    el futuro, se podría utilizar el chip neuronal de Aizawa como interfaz entre
    la prótesis y el sistema
    nervioso de pacientes que hubieran perdido una extremidad.

    Si
    continúa el uso de células vivas en sistemas eléctricos, en los próximos años
    casi con toda seguridad
    ocurrirá el advenimiento de dispositivos computacionales que, aunque rudimentarios,
    serán completamente bioquímicos." (Carolina Gasic, Siglo XXI 297, junio
    96, El Mercurio).

    "Cosas
    que piensan"

    Un
    proyecto de N.Negroponte en el MIT

    "Uno
    de los trabajos del Media Lab, uno de mis trabajos, es hacer que el laboratorio
    no pare de hacer locuras. Desgraciadamente, hemos pasado de estar locos a ser
    el establishment demasiado rápido. Y ser el establishment no tiene gracia, no
    tiene ninguna gracia. Pero ser un loco es muy divertido, sobre todo si tienes
    razón. Y por esto hemos intentado volver a determinadas áreas, y hemos emprendido
    una nueva iniciativa acerca de la cual os quiero hablar muy brevemente porque
    tiene que ver con multimedia,
    pero en un contexto diferente. Lo llamamos "Things that Think" (Cosas
    que piensan). Lo que "Things that Think" hace es intentar mezclar
    átomos y bits de maneras diversas, incrustándolos en objetos comunes, procesándolos
    no tan solo para que piensen, sino también para que se interconecten. Un ejemplo
    de esto es una cosa que construimos con Nike: un ordenador en el talón de una
    zapatilla de deporte.
    Mientras haces footing cargas el ordenador de energía, que si no se perdería
    por el asfalto o por la moqueta. Así te puedes quedar con la energía y tener
    un ordenador en tu zapatilla muy cargado. Los estudiantes han descubierto recientemente
    una forma de utilizar el propio cuerpo
    humano como medio de transmisión. No es que te cableen sino que hacen pasar
    por tu cuerpo 100.000 bits por segundo. Esto quiere decir que si me vuelvo a
    poner el reloj puedo comunicarme con la zapatilla a 100.000 bits por segundo.
    Me convierto en una especie de cuerpo de red local, una especie de informática
    prêt-à-porter.

    Ahora,
    lo que es más interesante es que cuando yo me acerco y nos damos la mano podemos
    intercambiar 100.000 bits por segundo. Pensad un momento que extraordinario
    sería esto. Ahora estamos en el [evento] Millia edición tres o cuatro, pero
    quizás en el Millia número diez todo el mundo se dará la mano, volverá a su
    habitación e imprimirá las tarjetas de presentación a través de la zapatilla.
    Y esto es el tipo de cosas que pensamos hacer."

    (Extracto
    de la Conferencia inaugural de Nicholas Negroponte en MILLIA 96, TVC, Televisió
    de Catalunya, Programas Informativos.)

    (
    http://www.puc.cl/curso_dist/cbc/index.html
    )

     

    GLOSARIO

    Ancho
    de banda:

    Cantidad
    de bits que se pueden transmitir por segundo a través de un determinado canal.

    Aplicaciones
    interactivas:

    Herramientas
    computacionales en las que el usuario tiene un papel activo, es decir ingresa
    datos, toma decisiones o responde consultas.

    ASCII
    (American Standard Code for Information Interchange):

    Sistema
    de codificación americano estándar de los impulsos correspondientes a las teclas
    (letras, números y comandos), para el intercambio de datos.

    Base
    de datos:

    Lugar
    donde se almacena información computacional (Archivo
    especialmente estructurado para su actualización y consulta electrónica). Permite
    buscar, ordenar y realizar múltiples operaciones sobre dichos datos.

    Baud:

    Unidad
    de medida de la velocidad de transmisión de un bit en un canal de comunicación.

    BBS
    (Bulletin Board Systems):

    Sistema
    de boletines, parecido al correo electrónico, donde los mensajes pueden ser
    leídos por todos los abonados de una red local o amplia. También pueden ser
    consultados por modem
    (teléfono) para quienes no están conectados a una red, según condiciones fijadas
    por el dueño del Boletín.

    Bit:

    Unidad
    de medida binaria de la información (vale 0 o 1).

    Bitmap:

    Formato
    basado en "mapa de puntos". Es uno de los formatos posibles para la
    conservación de imágenes, usado para fotografías y gráfica analógica (como caricaturas
    y pinturas). Se opone a vectorial o "Bezier", que utiliza coordenadas
    geométricas y fórmulas trigonométricas.

    Browser:

    "visualizador":
    aplicació utilizada para revisar los contenidos de una base de datos o de directorios
    de hiperarchivos (como es el caso de las pánas de Web
    .

    Bug:

    Error
    en un programa.

    Bus:

    Camino
    (cableado) que recorren los pulsos dentro del computador.

    Byte:

    Bloque
    de 8 bits; es lo necesario para codificar un carácter en el código ASCII.

    Cableado
    Ethernet:

    Es
    un tipo de red de comunicación que transmite a una velocidad estándar de 10
    Mb/s (mega bits por segundo).

    Carácter:

    Número,
    letra o símbolo (introducido inicialmente a través del teclado).

    Chip:

    Pequeñísima
    placa de silicona con multitud de circuitos electrónicos.

    Circuito
    integrado:

    Circuito
    eleéctrico que contiene decenas o miles de componentes electrónico, agrupados
    en un bloque indivisible en el proceso de fabricación. Es la parte medular de
    un "chip".

    Clave
    de acceso o contraseña:

    Ver
    password.

    Compatibilidad:

    Son
    compatibles los comptadores capaces de realizar los mismos programas.

    Compilador:

    Programa
    que traduce los programas fuente en lenguaje de máquina, para que ésta los ejecute
    en forma expedita.

    Concentrador:

    Elemento
    que divide la información de un canal de datos en dos o más canales que transportan,
    cada uno, dicha información.

    Conectividad:

    Disposición
    de los equipos computacionales para conectarse entre sí.

    Correo
    electrónico (e-mail):

    Sistema
    de envío y recepción de correspondencia privada (Todos los usuarios tienen una
    clave de acceso -password- que asegura la confidencialidad). A los mensajes
    escritos y enviados con la aplicación correspondiente es posible agregar archivos
    de otros tipos, que son transmitidos en formatos diferentes.

    CPU:

    Unidad
    Central de Proceso: circuito que gobierna el funcionamiento del computador.

    Encapsulado:

    Un
    encapsulado es un documento o una aplicación protegida total o parcialmente
    contra la
    lectura o el uso indebido. Para acceder a todo el contenido se requiere
    algún tipo de autorización (clave de acceso o decriptado). Es muy común en los
    programas de demostración ("demos"), donde la "cápsula"
    impide algunas funciones claves (como "Guardar") o bloquea el uso
    después de cierto tiempo.
    Para producir un encapsulado, se utiliza un programa que "envuelve"
    el documento o la aplicación de tal modo que no sea accesible en su forma original.
    Es probable que esta técnica se use cada vez más frecuentemente en Internet,
    para proteger las comunicaciones de la piratería.

    Enrutador
    (router):

    Elemento
    de red que realiza la función de asignar direcciones a paquetes de datos entre
    dos redes o subredes.

    Estación:

    Corresponde
    a un elemento computacional de trabajo, por ejemplo un PC, un Mac, una impresora,
    etc.

    Estándar
    SQL
    (Structured Query Lenguaje):

    Lenguaje
    creado por IBM para el manejo de bases de datos relacionales; es usado por la
    mayoría de los programas comerciales de administración de bases de datos.

    Fibra
    óptica:

    Medio
    de transmisión de datos que en vez de transmitir una señal eléctrica transmite
    un haz de luz. Es más rápido que el cable común (cobre)
    y alcanza mayores distancias sin pérdida de señal.

    Foro:

    Semejante
    a los "Grupos de interés" (News Groups).

    FPU
    (Floating point Unit):

    Unidad
    de punto flotante: es un procesador aritmético con la función específica de
    facilitar los cálculos que requieren decimales. (Se agrega habitualmente a un
    procesador que no tiene tal capacidad).

    FreeWare:

    Aplicaciones
    (programas) disponibles sin costo para cualquier utilizador potencial.

    FTP
    (File Transfer Protocol):

    Sistema
    de transferencia de archivos;
    permite enviar y recibir archivos de cualquier formato. Existen servidores
    de FTP
    que conservan aplicaciones de dominio
    público ("FreeWare") que los interesados pueden traer a su computador.

    Grupo
    de interés:

    Ver
    "News Group"

    Hardware:

    Componente
    sólido.

    Hexadecimal:

    Código
    pasado en 16 dígitos (de 0 a 9 y luego de A a F), por lo cual 2 dígitos hexadecimales
    forman 1 byte. Se utiliza para la programación de bajo nivel.

    Hiperarchivo:

    Archivo
    de documentos
    que mantienen múltiples vínculos entre sí.

    Hub:

    Ver
    Concentrador.

    Interfaz:

    Elemento
    mediador, medio de interacción (por ejemplo entre un equipo físico y el usuario
    del mismo), definido por características físicas del contacto, características
    de las señales intercambiadas y significado de las mismas.

    Kb
    (kilobyte):

    1024
    bytes.

    Lenguaje
    de programación:

    Lenguaje
    que se utiliza para redactar programas de computación.

    Línea:

    Conjunto
    de hilos conductores por donde pasa algún tipo de información.

    Mail:

    ver
    "Correo electrónico"

     

    Modem
    (Modulador-demodulador):

    Aparato
    que transforma la señal digital (binaria) del computador en la señal modulada
    que requieren las líneas telefónicas convencionales (en inversamente). De este
    modo pueden comunicarse dos computadores por medio del teléfono.

    News
    Group:

    Tipo
    de BBS sin restricción de acceso: los mensajes pueden ser leídos por todos los
    que están conectados a una red amplia (como Internet).
    Se organizan por temas, los cuales determinan "grupos de interés".
    Un lector elige los temas de su agrado (esto se llama "suscribirse"),
    puede leer todos los mensajes que el servidor
    conserva en relación a estos temas y puede contestar o agregar mensajes si lo
    desea. Se usa tanto para fines recreativos como de intercambio entre investigadores.
    Existen miles de grupos abiertos. (Ver UseNet)

    Password
    (Clave de acceso):

    Palabra
    o número secreto que permite acceso confidencial a una máquina, una red, un
    servicio
    o un conjunto de datos.

    Periférico:

    Aparato
    anexo, que facilita la entrada o salida de datos, o su conservación externa.

    Pixel:

    Punto
    básico de la pantalla que el computador puede encender o apagar, para formar
    figuras (letras o dibujos).

    Plotter:

    Trazador;
    impresora gráfica que dibuja imágenes con plumas de tinta. Los trazadores requieren
    datos gráficos en formato vectorial (o sea, basados en coordenadas geométricas)

    PostScript:

    Lenguaje
    de descripción de p´ginas creado por Adobe Systems para controlar las impresoras
    laser.
    Los comandos PostScript (ps) se adjuntan al texto que se envía y son traducidos
    por un intérprete que está en la ROM de la impresora. Su principal función consiste
    en manipular el tamaño de todo lo que se imprima (espacios, tipos e ilustraciones)
    para una óptima reproducción. Opera con un sistema de definición de tipografía
    que evita almacenar modelos de múltiples tamaños.

    Privilegios
    de acceso:

    Posibilidad
    de ver y modificar archivos en un disco compartido o un servidor
    de archivos en una red. Los privilegios tienen una jerarquía (desde "sólo
    ver los nombres" y "sólo leer" hasta "modificar" y
    "borrar") y es el propietario de la unidad compartida que determina
    quienes tienen acceso y en qué nivel, para lo cual puede exigir a los "clientes"
    que estén registrados y se identifiquen con una contraseña (clave de acceso).

    Procesador:

    Chip
    que contiene todo lo necesario para que el computador pueda realizar sus funciones.

    Programa:

    Serie
    de instrucciones que define las operaciones que ha de realizar el computador.

    Programación
    de bajo nivel:

    Programa
    redactado en código hexadecimal (el cual se "truduce" en un sólo y
    rápido paso – automático- al código binario de la máquina. Se opone a la programación
    de "alto nivel" que utiliza palabras más cercanas al lenguaje ordinario
    pero requiere etapas más complejas de traducción para que la máquina pueda operar.

    Protocolo:

    En
    comunicación de datos, es el "lenguaje" o estándar por medio del cual
    se entienden diferentes equipos computacionales.

    Puerto:

    Salida
    o entrada (enchufe) a la cual se conecta un cable de periférico o de red.

    RAM
    (Random Access
    Memory):

    Memoria
    de acceso directo, donde es almacenada la información que se introduce en el
    computador; se borra cada vez que se apaga el comptador.

    Red
    AppleShare:

    Red
    que utiliza un cable telefónico como medio de comunicación entre computadores
    Macintosh.

    Red
    de tipo LAN
    (Area Local de trabajo):

    Red
    entre oficinas o departamentos unidos en un radio no superior a unos 2 km.

    Red
    de tipo WAN (Area Amplia de trabajo):

    Red
    entre instituciones
    u oficinas establecidas a gran distancia unas de otras.

    Red
    Ethernet:

    Ver
    Cableado Ethernet.

    Repetidor:

    Elemento
    que se utiliza para extender segmentos de una red mas allá del largo permitido
    por el cable.

    Resolución:

    Número
    de pixels que el computador controla simultáneamente en el pantalla (Mientras
    mayor es la resolución de pantalla, más detalles puede tener un gráfico y más
    trabajo se requiere del procesador).

    Robot

    ROM
    (Read Only Memory):

    Memoria
    sólo de lectura;
    contiene las instrucciones básicas que permiten al computador funcionar (las
    que se imprimen en la fábrica y son permanentes).

    Shareware:

    Aplicaciones
    (programas) disponibles a bajo costo para cualquier utilizador potencial (Se
    debe enviar el pago al autor cuando se decide usar en forma regular).

    Sistema
    operativo:

    Software
    básico necesario para el funcionamiento de un computador.

    Software:

    Programas
    que utilizan los computadores.

    Spooler:

    Espacio
    de memoria donde se guarda transitoriamente una serie de datos requeridos por
    un periféico más lento que la CPU, de tal modo que ésta se vea liberada para
    realizar nuevas tareas.Su principal uso consiste en recibir la información que
    se desea imprimir y enviarla a la impresora a medida que ésta la pueda recibir
    (lo cual se llama a veces "impresión subordinada")

    Subrutina:

    Parte
    de un programa que realiza una función específica; puede ser "activada"
    desde distintos puntos de un programa, en repetidas oportunidades.

    TCP/IP:

    Protocolo
    de control de transferencia de datos establecido en 1982 como estándar de Internet.

    Terminal:

    Aparato
    que permite comunicarse con la unidad central de un computador que puede estar
    a gran distancia (Se trata generalmente de un teclado unido a un monitor -pantalla-
    más el sistema de transmisión).

    Transceiver:

    Aparato
    que recibe y envía señales (p.ej. para conectar un computador a una red).

    Transistor:

    Componente
    electrónico básico que detiene o deja pasar las señales eléctricas dependiendo
    de las pulsaciones anteriores. Un chip o circuito integrado contiene un gran
    números de transistores.

    Transputer
    ("transputador"):

    Chip
    que reúne varias unidades de cálculo que operan simultáneamente (procesamiento
    paralelo), una memoria y mútiples conexiones que permiten un intercambio rápido
    con otros transputers.

    UseNet:

    Red
    de computadores que intercambian noticias en forma de artículos adscritos a
    grupos de discusión (newsgroups).

    Virus:

    Sofware
    que se ejecuta en un PC, Mac o servidor sin control del usuario, con el fin
    de dañar la información existente. Se auto-reproduce al ejecutarse, multiplicándose
    así con gran facilidad.

    Wrapped:

    Ver
    "Encapsulado".

    World
    Wide Web (WWW):

    Red
    mundial de computadores por la cual se transmiten principalmente archivos hiper
    y multimediales.

    (
    http://www.puc.cl/curso_dist/cbc/textos/tgeneral/diccion.html
    )

    CONCLUSIONES

    LA
    COMPUTACION A IDO EVOLUCIONANDO CON EL PASO DEL TIEMPO,LOS PRIMEROS HOMBRES
    HACIAN SUS CALCULOS CON LOS DEDOS LUEGO INVENTARON EL ABACO QUE ERA MAS RAPIDO.
    Y ASI POCO A POCO HAN HIDO EVOLUCIONDO CON RESPECTO A LA COMPUTACION.

    EL
    DESARROLLO DE LA COMPUTADORA NOS HA SERVIDO PARA HACER LOS CALCULOS MAS RAPIDOS,
    TAMBIEN A SIDO APLICADA EN OTRAS ACTIVIDADES HUMANAS FACILITANDOLAS Y PROMOVIENDO
    SU DESARROLLO.

    PARA
    LLEGAR A TENER LA COMPUTADORA MODERNA SE OCUPO TAMBIEN EL DESARROLLO DE OTRAS
    MATERIAS COMO SON LA MATEMATICA, LA FISICA, LA QUIMICA Y LA ELECTRONICA.

    COMO
    VEMOS LA COMPUTACION SEGUIRA EVOLUCONANDO AÑO CON AÑO PARA CUBRIR LAS NECESIDADES
    DE LA VIDA MODERNA Y LOS NUEVOS PROCESOS INDUSTRIALES, DE SALUD,
    EDUCATIVOS, CREATIVOS, RECREATIVOS, DE COMUNICACIÓN, ETC..

    BIBLIOGRAFIA

     

     

    http://members.es.tripod.de/kelsen/marco.html

    http://www.puc.cl/curso_dist/cbc/index.html

    http://www.puc.cl/curso_dist/cbc/textos/tgeneral/diccion.html

    http://coqui.metro.inter.edu/cedu6320/ssegarra/historia.html

    http://coqui.metro.inter.edu/cedu6320/ssegarra/tipocomp.html

    http://www.class.udg.mx/%7Exotchilt/historia.html

    AUSTRIAN,
    G. & SULLIVAN, J.: "How one's company zest for technological innovation
    helped build the computer industry", IBM,1984.

    FREED,
    L.: "The History of Computers", Ziff-Davis Press, Emeryville (Ca),
    1995.

    GOLDEN,
    F.: "Big Dimwits and Little Geniuses",Time, Amsterdam, 3 de enero
    1983, pp.5-24.

    INOSE,
    H. y PIERCE, J. : "Tecnología de la Información y Civilización", Labor,
    Barcelona,
    1985.

    OLGUIN,
    H.: "Mundo'83: 4 Computación", TVUC, Santiago, 1983.

    PEREZ,
    V. y PINO, J.: "Introducción a la informática y los sistemas administrativos",
    Ed. Universitaria, Santiago,10º ed., 1987.

    "BASIC
    – Enciclopedia de la Informática", nº1, Cochrane-Planeta, Santiago, 1984.

    "Grandes
    Ideas del Siglo XX", Suplemento revista "Muy Interesante", Santiago,
    julio 1989, 36p.

    "Computación",
    Hoy-Extra, Santiago, Agosto 1985.

     

    CONALEP
    MEXICANO ITALIANO

    ALUMNO:JUAN
    MANUEL GARCIA ACEVES

    PROF.:
    ANTONIO BARAJAS DEL CASTILLO

    Trabajo
    enviado por:
    Adrian Camacho
    adriancamacho[arroba]megared.net.m

     

    Nota al lector: es posible que esta página no contenga todos los componentes del trabajo original (pies de página, avanzadas formulas matemáticas, esquemas o tablas complejas, etc.). Recuerde que para ver el trabajo en su versión original completa, puede descargarlo desde el menú superior.

    Todos los documentos disponibles en este sitio expresan los puntos de vista de sus respectivos autores y no de Monografias.com. El objetivo de Monografias.com es poner el conocimiento a disposición de toda su comunidad. Queda bajo la responsabilidad de cada lector el eventual uso que se le de a esta información. Asimismo, es obligatoria la cita del autor del contenido y de Monografias.com como fuentes de información.

    Categorias
    Newsletter