0% encontró este documento útil (0 votos)
90 vistas9 páginas

Historia y Evolucion de Los Sistemas Ope

El documento describe la historia y evolución de los sistemas operativos desde los años 1940 hasta los años 1980. Los primeros sistemas operativos aparecieron en los años 1950 para facilitar la interacción entre personas y computadoras e incluían conceptos como el monitor residente y el procesamiento por lotes. En los años 1960 se desarrollaron técnicas como la multiprogramación, el tiempo compartido y los sistemas en tiempo real para mejorar la eficiencia. En los años 1970 surgieron sistemas operativos más avanzados como Unix y se popularizaron los miniordenadores
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
90 vistas9 páginas

Historia y Evolucion de Los Sistemas Ope

El documento describe la historia y evolución de los sistemas operativos desde los años 1940 hasta los años 1980. Los primeros sistemas operativos aparecieron en los años 1950 para facilitar la interacción entre personas y computadoras e incluían conceptos como el monitor residente y el procesamiento por lotes. En los años 1960 se desarrollaron técnicas como la multiprogramación, el tiempo compartido y los sistemas en tiempo real para mejorar la eficiencia. En los años 1970 surgieron sistemas operativos más avanzados como Unix y se popularizaron los miniordenadores
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Está en la página 1/ 9

HISTORIA Y EVOLUCIÓN DE LOS SISTEMAS OPERATIVOS

Todo empezó en la década de los 40.


AÑOS 40
A finales de los años 1940, con lo que podríamos llamar la aparición de la primera
generación de computadoras, se accedía directamente a la consola de la computadora
desde la cual se actuaba sobre una serie de micro interruptores que permitían
introducir directamente el programa en la memoria de la computadora (en realidad al
existir tan pocas computadoras todos podrían considerarse prototipos y cada
constructor lo hacía sin seguir ningún criterio predeterminado). Por aquel entonces no
existían los sistemas operativos, y los programadores debían interactuar con el
hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación
para realizar una tarea fuera considerable. Además para poder utilizar la computadora
debía hacerse por turnos. Para ello, en muchas instalaciones, se rellenaba un
formulario de reserva en el que se indicaba el tiempo que el programador necesitaba
para realizar su trabajo. En aquel entonces las computadoras eran máquinas muy
costosas lo que hacía que estuvieran muy solicitadas y que sólo pudieran utilizarse en
periodos breves de tiempo. Todo se hacía en lenguaje de máquina.
AÑOS 50
A principios de los años 50 con el objeto de facilitar la interacción entre persona y
computador, los sistemas operativos hacen una aparición discreta y bastante simple,
con conceptos tales como el monitor residente, el proceso por lotes y el
almacenamiento temporal.
Monitor residente
Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria,
leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era
encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje
del siguiente.
Procesamiento por lotes
Como solución para optimizar el tiempo de montaje surgió la idea de agrupar los
trabajos en lotes, en una misma cinta o conjunto de tarjetas, de forma que se
ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición.
Almacenamiento temporal
Su objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la
carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para
ello se utilizaban dos técnicas, el buffering y el spooling.
AÑOS 60
En los años 1960 se produjeron cambios notorios en varios campos de la informática,
con la aparición del circuito cerrado la mayoría orientados a seguir incrementando el
potencial de los computadores. Para ello se utilizaban técnicas de lo más diversas:
Multiprogramación
En un sistema multiprogramado la memoria principal alberga a más de un programa
de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra
en ejecución realiza una operación de E/S; en lugar de esperar a que termine la
operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra
operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a
ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado
de tareas en cada momento, utilizar de manera óptima los recursos disponibles.
Tiempo compartido
En este punto tenemos un sistema que hace buen uso de la electrónica disponible,
pero adolece de falta de interactividad; para conseguirla debe convertirse en un
sistema multiusuario, en el cual existen varios usuarios con un terminal en línea,
utilizando el modo de operación de tiempo compartido. En estos sistemas los
programas de los distintos usuarios residen en memoria. Al realizar una operación de
E/S los programas ceden la CPU a otro programa, al igual que en la
multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo
ejecutándose el sistema operativo lo detiene para que se ejecute otro aplicación. Con
esto se consigue repartir la CPU por igual entre los programas de los distintos
usuarios, y los programas de los usuarios no se sienten demasiado lentos por el hecho
de que los recursos sean compartidos y aparentemente se ejecutan de manera
concurrente.
Tiempo real
Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos
muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el
sistema no respeta las restricciones de tiempo en las que las operaciones deben
entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe
servir para resolver el problema o hecho planteado. El procesamiento de archivos se
hace de una forma continua, pues se procesa el archivo antes de que entre el
siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones.
Multiprocesador
Permite trabajar con máquinas que poseen más de un microprocesador. En un
multiprocesador los procesadores comparten memoria y reloj.
Sistemas operativos desarrollados
Además del Atlas Supervisor y el OS/360, los sesenta marcaron el inicio de UNIX, a
mediados de los 60 aparece Multics, sistema operativo multiusuario – multitarea
desarrollado por los laboratorios Bell de AT&T y programado en PL/1 uno de los pocos
SO desarrollados en un lenguaje de alto nivel en aquel tiempo, luego del fracaso del
proyecto UNIX comienza a desarrollarse a partir de este a finales de la década.
AÑOS 70
Debido al avance de la electrónica, pudieron empezar a crearse circuitos con miles de
transistores en un centímetro cuadrado de silicio, lo que llevaría, pocos años después,
a producirse los primeros sistemas integrados. Ésta década se podría definir como la
de los sistemas de propósito general y en ella se desarrollan tecnologías que se
siguen utilizando en la actualidad. Es en los años 1970 cuando se produce el boom de
los miniordenadores y la informática se acerca al nivel de usuario. En lo relativo a
lenguajes de programación, es de señalar la aparición de Pascal y C, el último de los
cuales se creó específicamente para reescribir por completo el código del sistema
operativo Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto
nivel. En el campo de la programación lógica se dio a luz la primera implementación de
Prolog, y en la revolucionaria orientación a objetos, Smalltalk.
Inconvenientes de los sistemas existentes
Se trataba de sistemas grandes y costosos, pues antes no se había construido nada
similar y muchos de los proyectos desarrollados terminaron con costos muy por
encima del presupuesto y mucho después de lo que se marcaba como fecha de
finalización. Además, aunque formaban una capa entre el hardware y el usuario, éste
debía conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los
inconvenientes es el gran consumo de recursos que ocasionaban, debido a los
grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de
procesador consumido. Es por esto que se intentó hacer hincapié en mejorar las
técnicas ya existentes de multiprogramación y tiempo compartido.
Características de los nuevos sistemas
Para solventar los problemas antes comentados, se realizó un costosísimo trabajo
para interponer una amplia capa de software entre el usuario y la máquina, de forma
que el primero no tuviese que conocer ningún detalle de la circuitería.
Sistemas operativos desarrollados
* MULTICS (Multiplexed Information and Computing Service): Originalmente era un
proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y
los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron
en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el
mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de
máquinas Honeywell 6180.
Fue uno de los primeros sistemas operativos de tiempo compartido, que implementó
un solo nivel de almacenamiento para el acceso a los datos, desechando la clara
distinción entre los ficheros y los procesos en memoria, y uno de los primeros sistemas
multiprocesador.
* MVS (Multiple Virtual Storage): Fue el sistema operativo más usado en los modelos
de mainframes -ordenadores grandes, potentes y caros usados principalmente por
grandes compañías para el procesamiento de grandes cantidades de datos-
System/370 y System/390 de IBM, desarrollado también por IBM y lanzado al mercado
por primera vez en 1974. Como características destacables, permitía la ejecución de
múltiples tareas, además de que introdujo el concepto de memoria virtual y finalmente
añadió la capacidad de que cada programa tuviera su propio espacio de
direccionamiento de memoria, de ahí su nombre.
* CP/M (Control Program/Monitor): Desarrollado por Gary Kildall para el
microprocesador 8080/85 de Intel y el Zilog Z80, salió al mercado en 1976,
distribuyéndose en disquetes de ocho pulgadas. Fue el SO más usado en las
computadoras personales de esta década. Su éxito se debió a que era portátil,
permitiendo que diferentes programas interactuasen con el hardware de una manera
estandarizada. Estaba compuesto de dos subsistemas:
o CCP (Comand Control Processor): Intérprete de comandos que permitía introducir
los mandatos con sus parámetros separados por espacios. Además, los traducía a
instrucciones de alto nivel destinadas a BDOS.
o BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a
la BIOS.
El hecho de que, años después, IBM eligiera para sus PCs a MS-DOS supuso su
mayor fracaso, por lo que acabó desapareciendo.
AÑOS 80
Con la creación de los circuitos LSI -integración a gran escala-, chips que contenían
miles de transistores en un centímetro cuadrado de silicio, empezó el auge de los
ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó
más que el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas.
Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples
para los usuarios. En esta época, siguieron utilizándose lenguajes ya existentes, como
Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel
dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el campo de
la programación declarativa. Un avance importante que se estableció a mediados de la
década de 1980 fue el desarrollo de redes de computadoras personales que corrían
sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos
sistemas operativos eran los mayoritarios: MS-DOS, escrito por Microsoft para IBM PC
y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que
dominaba en los ordenadores personales que hacían uso del Motorola 68000.
Apple Macintosh
El lanzamiento oficial se produjo en enero de 1984, al precio de 2495 dólares. Muchos
usuarios, al ver que estaba completamente diseñado para funcionar a través de una
GUI (Graphic User Interface), acostumbrados a la línea de comandos, lo tacharon de
juguete. A pesar de todo, el Mac se situó a la cabeza en el mundo de la edición a nivel
gráfico.
MS-DOS
En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas
pocas modificaciones, se convirtió en la primera versión de MS-DOS (MicroSoft Disk
Operating System). A partir de aquí se sucedieron una serie de cambios hasta llegar a
la versión 7.1, a partir de la cual MS-DOS dejó de existir como tal y se convirtió en una
parte integrada del sistema operativo Windows.
Microsoft Windows
Familia de sistemas operativos propietarios desarrollados por la empresa de software
Microsoft Corporation, fundada por Bill Gates y Paul Allen. Todos ellos tienen en
común el estar basados en una interfaz gráfica de usuario basada en el paradigma de
ventanas, de ahí su nombre en inglés. Las versiones de Windows que han aparecido
hasta el momento se basan en dos líneas separadas de desarrollo que finalmente
convergen en una sola con la llegada de Windows XP. La primera de ellas conformaba
la apariencia de un sistema operativo, aunque realmente se ejecutaba sobre MS-DOS.
Actualmente existe Windows Vista.
AÑOS 90
GNU/Linux
En 1991 aparece la primer versión del núcleo de Linux. Creado por Linus Torvalds y
un sinfín de colaboradores a través de Internet. Este sistema se basa en Unix, un
sistema que en principio trabajaba en modo comandos, estilo MS-DOS. Hoy en día
dispone de Ventanas, gracias a un servidor grafico y a gestores de ventanas como
KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que
convierte las ventanas en un entorno 3D como por ejemplo Beryl. Lo que permite
utilizar linux de una forma muy visual y atractiva.
EVOLUCIÓN DEL HARDWARE
1642 PASCAL: Desarrolló lo que se conoce como el primer calculador mecánico, que
permitía realizar sumas y restas. El inventor y pintor Leonardo Da Vinci (1452-1519)
había trazado las ideas para una sumadora mecánica. Siglo y medio después, el 3
filósofo y matemático francés Blaise Pascal (1623-1662) inventó y construyó la primera
sumadora mecánica. Se la llamó Pascalina y funcionaba a base de engranes y ruedas.
A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la
Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos,
resultaba más costosa que la labor humana para los cálculos aritméticos.
1672 LEIBNITZ: Dio a conocer una máquina más perfeccionada que la de Pascal,
permitiendo la realización además de sumas y restas, de multiplicaciones y cocientes.
1822 BABBAGE: Charles Babbage (1793-1871), visionario inglés y catedrático de
Cambridge, inventó y construyó la "máquina de diferencias", capaz de calcular tablas
matemáticas en forma automatizada.
1833 BABBAGE: Mejora su idea anterior buscando una máquina de propósito más
general, con accionamiento automático. Preveía ingresos separados para los datos y
la secuencia de operaciones a realizar con ellos, pudiendo alterar ésta última a partir
de aquellos. Vislumbra la estructura que debería tener un computador. Esta es su
MAQUINA ANALÍTICA, la que nunca llegó a concretarse por no disponerse en esa
época de los elementos técnicos para su construcción. En esencia, ésta era una
computadora de propósitos generales. Conforme con su diseño, la máquina analítica
de Babbage podía sumar, substraer, multiplicar y dividir en secuencia automática a
una velocidad de 60 sumas por minuto. Los escépticos le pusieron el sobrenombre de
"la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su
muerte. Los trazos detallados de Babbage describían las características incorporadas
ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de
la tecnología electrónica y las partes de precisión, quizás hubiera adelantado el
nacimiento de la computadora electrónica por varias décadas.
Irónicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la
computadora electrónica ignoraron por completo sus conceptos sobre memoria,
impresoras, tarjetas perforadas y control de programa secuencial.
1890 HOLLERIT: aplica el método de la tarjeta perforada para confeccionar los
resultados del censo de EE.UU. de ese año. Funda una sociedad de la que surgió
IBM. 1910 POWERS: también contratado por la oficina de censos de los EE.UU.,
diseña una nueva máquina para procesar tarjetas perforadas con mayor capacidad
que la ideada por Hollerit, Fundaría luego su compañía, la que más tarde se
transformaría en la Sperry Rand Corporation.
1937 H. AIKEN, de la Universidad de Hardvard, con apoyo de IBM, desarrolla un
calculador electromecánico que fue terminado en 1944. Se estima que fue el primer
calculador automático. Podía realizar una multiplicación en aproximadamente 6
segundos y una división en 12 segundos.
1939 John ATANASOFF, de la Universidad de IOWA, desarrolla juntamente con su
discípulo C. Berry un computador electrónico de lógica cableada. Lo denominaron
ABC (Atanasoff-Berry-Computer). Se considera que fue el primer computador digital
electrónico. Algunos autores consideran que no hay una sola persona a la que se le
pueda atribuir el haber inventado la computadora, sino que fue el esfuerzo de muchas
personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa
aparece una placa con la siguiente leyenda: "La primera computadora digital
electrónica de operación automática del mundo, fue construida en este edificio en
1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad,
quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."
1945 ECKERT y MAUCHLY, de Pensylvania, desarrollan un computador que se llamó
ENIAC (Integrador y calculador numérico electrónico) trabajaba totalmente con tubos
de vacío. Este proyecto se terminó en 1946, luego de 30 meses de trabajo. Se utilizó 4
en aplicaciones de la Segunda Guerra mundial. Era mil veces más veloz que sus
predecesoras electromecánicas, irrumpiendo como un importante descubrimiento en la
tecnología de la computación. Pesaba 30 toneladas, ocupando un espacio de 450 mts
cuadrados, (aprox. 6 m x 12 m) y tenía 18,000 tubos. Debía programarse
manualmente conectándola a 3 tableros que contenían más de 6000 interruptores.
Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso
semanas. A diferencia de las computadoras actuales que operan internamente con un
sistema de numeración binario (0,1), la ENIAC operaba en el sistema decimal.
Requería tanta electricidad, que parpadeaban las luces de Filadelfia cuando se
activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC
señalaron el comienzo de la primera generación de computadoras.
1946 VON NEUMANN en su artículo sobre "Teoría y técnicas de los computadores
digitales electrónicos" da un paso decisivo al enunciar nuevos conceptos:
1) El programa registrado o programa almacenado: Von Neumann tuvo la idea de
ocupar la memoria, que las máquinas de la época sólo utilizaban para guardar
resultados intermedios, para almacenar también el programa. Este principio se utiliza
hasta nuestros días.
2) La ruptura de secuencia: Von Neumann concibió la idea de hacer automáticas las
operaciones de decisión lógica (anteriormente tomadas mediante la intervención
humana).
Establece de esta forma el principio de la instrucción de RUPTURA CONDICIONAL o
SALTO CONDICIONAL en base a un resultado ya obtenido.
3) Aritmética binaria codificada en los cálculos. Esto permitía la utilización directa de
los circuitos eléctricos encargados de las operaciones, que eran de naturaleza
biestable.
1949 Nace EDSAC (Calculador electrónico automático con almacenamiento de
retardo) en Cambridge, Inglaterra. Es el computador electrónico tal como lo
conocemos actualmente. Utiliza arquitectura tipo Von Neumann y aplica los principios
del álgebra binaria o ÁLGEBRA DE BOOLE. Fue el primer ordenador que incorporó un
sistema operativo (soporte lógico que administra los recursos de la máquina para
satisfacer las necesidades de los diversos programas que maneja).
1950 ECKERT y MAUCHLY mejoran el desarrollo de su ENIAC incorporando los
conceptos formulados por Von Neumann y dan a conocer el EDVAC, con
características muy semejantes al EDSAC inglés. Poco tiempo después se vinculan
con la firma Remington Rand creando la división Sperry Rand.
1951 Primer computador comercial, desarrollado por Sperry, se denominó UNIVAC I.
La primer venta se realizó a la oficina de censos de los EE.UU.
1953 IBM hace su aparición en el campo de los computadores digitales ofreciendo su
modelo 701.
1954 IBM ofrece el modelo 650, el que gozó de gran popularidad y se consideró el
computador más vendido en los siguientes cinco años.
EVOLUCIÓN DEL SOFTWARE
LA EVOLUCIÓN DEL SOFTWARE
Durante los primeros años de la era de la computadora, el software se contemplaba
como un añadido. La programación de computadoras era un <<arte de andar por
casa>> para el que existían pocos métodos sistemáticos. El desarrollo del software se
realizaba virtualmente sin ninguna planificación, hasta que los planes comenzaron a
descalabrarse y los costos a crecer. Los programadores trataban de hacer las cosas
bien, y con un esfuerzo heroico, a menudo salían con éxito.
Durante los primeros años lo normal era que el hardware fuera de propósito general.
Por otra parte, el software se diseñaba a medida para cada aplicación y tenía una
distribución relativamente pequeña. El software como producto (es decir, programas
desarrollados para ser vendidos a uno o más clientes) estaba en su infancia. La
mayoría del software se desarrollaba y era utilizado por la misma persona u
organización. La misma persona lo escribía, lo ejecutaba y, si fallaba, lo depuraba.
Debido a que la movilidad en el trabajo era baja, los ejecutivos estaban seguros de
que esa persona estará allí cuando se encontrara algún error. Debido a este entorno
personalizado del software, el diseño era un proceso implícito, realizado en la mente
de alguien, y la documentación normalmente no existía.
La segunda era en la evolución de los sistemas de computadora se extiende desde la
mitad de la década de los sesenta hasta finales de los setenta. La multiprogramación y
los sistemas multiusuario introdujeron nuevos conceptos de interacción hombre-
máquina. Las técnicas interactivas abrieron un nuevo mundo de aplicaciones y nuevos
niveles de sofisticación del hardware y del software. Los sistemas de tiempo real
podían recoger, analizar y transformar datos de múltiples fuentes, controlando así los
procesos y produciendo salidas en milisegundos en lugar de en minutos. Los avances
en los dispositivos de almacenamiento en línea condujeron a la primera generación de
sistemas de gestión de bases de datos.
La segunda era se caracterizó también por el establecimiento del software como
producto y la llegada de las <<casas de software>>. El software ya se desarrollaba
para tener una amplia distribución en un mercado multidisciplinar. Los programas se
distribuían para computadoras grandes y para minicomputadoras, a cientos e incluso a
miles de usuarios.
Conforme crecía el número de sistemas informáticos, comenzaron a extenderse las
bibliotecas de software de computadora. Las casas desarrollaban proyectos en los que
se producían programas de decenas de miles de sentencias fuente. Los productos de
software comprados al exterior incorporaban cientos de miles de nuevas sentencias.
Una nube negra apareció en el horizonte. Todos esos programas, todas esas
sentencias fuente tenían que ser corregidas cuando se detectaban fallas, modificadas
cuando cambiaban los requisitos de los usuarios o adaptadas a nuevos dispositivos
hardware que se hubieran adquirido. Estas actividades se llamaron colectivamente
mantenimiento del software. El esfuerzo gastado en el mantenimiento del software
comenzó a absorber recursos en una medida alarmante.
Aún peor, la naturaleza personalizada de muchos programas los hacía virtualmente
imposible de mantener. Había comenzado una crisis del <<software>>.
La tercera era en la evolución de los sistemas de computadora comenzó a mediados
de los años setenta y continuó más allá de una década. El sistema distribuido,
múltiples computadoras, cada una ejecutando funciones concurrentemente y
comunicándose con alguna otra, incrementó notablemente la complejidad de los
sistemas informáticos. Las redes de área local y de área global, las comunicaciones
digitales de alto ancho de banda y la creciente demanda de acceso <<instantáneo>> a
los datos, supusieron una fuerte presión sobre los desarrolladores del software. Aún
más, los sistemas y el software que lo permitían continuaron residiendo dentro de la
industria y de la academia. El uso personal era extraño.
La conclusión de la tercera era se caracterizó por la llegada y amplio uso de los
microprocesadores. El microprocesador ha producido un extenso grupo de productos
inteligentes, desde automóviles hasta hornos de microondas, desde robots industriales
a equipos de diagnósticos de suero sanguíneo, pero ninguno ha sido más importante
que la computadora personal.
La cuarta era de la evolución de sistemas informáticos se aleja de las computadoras
individuales y de los programas de computadoras, dirigiéndose al impacto colectivo de
las computadoras y del software. Potentes máquinas personales controladas por
sistemas operativos sofisticados, en redes globales y locales, acompañadas por
aplicaciones de software avanzadas se han convertido en la norma. Las arquitecturas
informáticas están cambiando de entornos centralizados de grandes computadoras a
entornos descentralizados cliente/servidor. Las redes de información en todo el mundo
proporcionan una infraestructura que iguala a expertos y políticos en pensar sobre una
<<superautopista de información>> y una <<conexión del ciberespacio>>. De hecho
Internet se puede observar como un <<software>> al que pueden acceder usuarios
individuales.
La industria del software ya es la cuna de la economía del mundo. Las decisiones
tomadas por gigantes de la industria tales como Microsoft arriesgan billones de
dólares. A medida que la cuarta generación progresa, han comenzado a surgir nuevas
tecnologías. Las tecnologías orientadas a objetos están desplazando rápidamente los
enfoques de desarrollo de software más convencionales en muchas áreas de
aplicaciones. Los sistemas expertos y el software de inteligencia artificial han salido
del laboratorio para entrar en aplicaciones prácticas de una gran variedad de
problemas del mundo real. El software de redes neuronales artificiales junto con la
aplicación de lógica difusa han abierto posibilidades excitantes para el reconocimiento
de patrones y habilidades de procesamiento de información de carácter humano.
La programación de realidad virtual y los sistemas multimedia ofrecen formas
radicalmente diferentes de comunicar información al usuario final. <<Los algoritmos
genéticos>> ofrecen el potencial para el software que reside dentro de las
computadoras biológicas masivamente en paralelo.
La evolución del Software.
La primera era:
Orientación por lotes (batch)
Distribución limitada
Software a medida

La segunda era:
Multiusuario
Tiempo real
Bases de datos
Software como producto

La tercera era:
Sistemas distribuidos
Incorporación de <<inteligencia>>
Hardware de bajo costo
Impacto en el consumo

La cuarta era:
Sistemas personales potentes
Tecnologías orientadas a objetos
Sistemas expertos
Redes neuronales artificiales
Computación en paralelo
Redes de computadoras

También podría gustarte