¿Qué es la historia de la informática?

Salario de la informática

1952 Entra en funcionamiento el ILLIAC, el primer ordenador construido y propiedad de una institución educativa. Tenía tres metros de largo, dos de ancho y ocho y medio de alto, contenía 2.800 tubos de vacío y pesaba cinco toneladas.1955 Se construye un prototipo de ordenador transistorizado de cuatro bits.1957 Los profesores de la UI demuestran un flip-flop 10 veces más rápido que cualquier otro diseño en uso.1958 El profesor James E. Robertson, ingeniero eléctrico y experto en sistemas de comprobación de errores, es pionero en las técnicas básicas de división binaria eficiente. El algoritmo de división SRT, que ahora se encuentra tanto en las implementaciones de hardware como de software de la instrucción de división y se utiliza ampliamente en los microprocesadores más potentes, lleva el nombre de D. Sweeney, Robertson y T.D. Tocher, que inventaron el método de forma independiente aproximadamente al mismo tiempo.

1971 El programa de licenciatura del departamento en la Facultad de Ingeniería es aprobado por el Consejo de Administración en septiembre. Al mismo tiempo, la licenciatura administrada por el Departamento de Ingeniería Eléctrica e Informática, «Ingeniería Eléctrica y Ciencias de la Computación», pasa a llamarse «Ingeniería Informática».  1972 El profesor de la UI John Bardeen gana un segundo Premio Nobel de Física por desarrollar la teoría de la superconductividad.

Abreviatura de informática

Tras la caída de las punto com en 2001, el número de estudiantes que se matriculan en programas de informática disminuyó hasta 2007. Sin embargo, esa tendencia se está invirtiendo, según los nuevos datos de la encuesta anual Taulbee de la Computing Research Association (CRA). Las inscripciones totales entre los estudiantes de ciencias de la computación de EE.UU. aumentaron un 10% en 2010, el tercer año consecutivo de aumentos, lo que indica que el declive ha terminado. La encuesta documenta las tendencias en la matriculación de estudiantes, el empleo de los graduados y otros aspectos de la informática en Estados Unidos y Canadá.

Lee más  ¿Cuál es la importancia de la informática?

«‘Hackers’ es, sin duda, profundamente dudoso en el departamento de informática. Aunque no cabe duda de que en la vida real ningún hacker podría hacer lo que hacen los personajes de esta película, no cabe duda de que lo que pueden hacer los hackers no sería una película muy entretenida».

La popularidad de la informática como especialidad académica ha aumentado y disminuido a lo largo de los años. Las matriculaciones en Estados Unidos descendieron significativamente en 2004 y 2005, después de que los analistas predijeran que muchos trabajos de programación informática emigrarían a la India. Pero desde la crisis financiera de 2008, la informática ha recuperado su popularidad. El entusiasmo de estos días se centra en los programas interdisciplinarios que combinan la informática con la biología, la medicina y los negocios. «La disciplina es aún lo suficientemente joven como para no estar anclada en la tradición. Se están produciendo cambios», dice Brooks, que sigue siendo profesor en la UNC.

Informática en Alemania

El primer ordenador de la UW, el Bendix G-15, pesaba 966 libras. Los estudiantes podían acceder a él a través de una hoja de inscripción para fines de investigación. Esta máquina acabaría siendo reservada las 24 horas del día y los 7 días de la semana. La popularidad del ordenador puso de manifiesto el potencial de la tecnología informática a nivel universitario.    La Universidad siguió invirtiendo en esta tecnología y en este campo, y sigue haciéndolo en la actualidad. La Universidad cree que las instalaciones informáticas deben ser manejadas como las bibliotecas y el acceso debe ser gratuito para todos los usuarios. Esta filosofía se ha mantenido hasta nuestros días.

Lee más  ¿Dónde se guardan las tablas de los 10 mandamientos?

Esto ha permitido a los estudiantes de Ciencias de la Computación el acceso al Teton para HPC y Petalibrary, el Supercomputador Mt. Moran, la Instalación de Almacenamiento Big Horn, el Centro de Visualización Shell 3D, el Centro de Educación e Investigación en Ciberseguridad. Estaciones de trabajo Unix y MS, así como software líder en la industria. La tecnología informática siguió mejorando y se hizo más móvil. La Universidad exploró esta movilidad al más puro estilo de Wyoming, explorando varios campos que esta nueva tecnología podría ayudar a mejorar. Hoy vemos que la tecnología informática es vital en casi todos los campos, lo que permite que la informática sea un campo de estudio versátil y valioso en la UW. Hoy en día, las organizaciones estudiantiles dentro del Departamento de Ciencias de la Computación incluyen:

Cronología de la historia de la informática

La primera herramienta conocida para el cálculo fue el ábaco, desarrollado en el periodo comprendido entre el 2700 y el 2300 a.C. La historia de la informática comenzó mucho antes de la disciplina moderna de la informática que surgió en el siglo XX, y se insinuó en los siglos anteriores. Se cree que el primer ordenador mecánico analógico conocido es el mecanismo de Anticitera, que calculaba las posiciones astronómicas. En 1837, Charles Babbage describió por primera vez su máquina analítica, que se acepta como el primer diseño de un ordenador moderno. La máquina analítica tenía memoria ampliable, una unidad aritmética y capacidades de procesamiento lógico capaces de interpretar un lenguaje de programación con bucles y ramificaciones condicionales. Aunque nunca se construyó, el diseño se ha estudiado ampliamente y se considera equivalente a Turing. El motor analítico habría tenido una capacidad de memoria inferior a 1 kilobyte de memoria y una velocidad de reloj inferior a 10 hercios.

Lee más  ¿Cuáles son los dispositivos de almacenamiento por medio electronico?

En 1702, Gottfried Wilhelm Leibniz desarrolló la lógica en un sentido formal y matemático con sus escritos sobre el sistema numérico binario. En su sistema, los unos y los ceros representan también valores verdaderos y falsos o estados de encendido y apagado. Pero tuvo que pasar más de un siglo antes de que George Boole publicara su álgebra de Boole en 1854 con un sistema completo que permitía modelar matemáticamente los procesos computacionales.