Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Primeros Hackers de La Historia

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 10

PRIMEROS HACKERS DE LA HISTORIA

 Alan Turing

fue un brillante matemático, criptoanalista e informático teórico


nacido el veintitrés de Junio de 1912 en Maida Vale un distrito
residencial al oeste de Londres. Turing, ademas de ser un brillante
científico era homosexual, lo cual le costó la vida el siete de junio de
1954.

La Máquina de Turing
Una máquina de Turing, es un dispositivo teórico que manipula
símbolos sobre una cinta de acuerdo con una tabla de reglas definida.
Este modelo computacional puede ser adaptado para simular la lógica
de cualquier algoritmo y es particularmente útil en la labor de explicar
el funcionamiento de una CPU.

La máquina de Turing fue descrita por Alan Turing en 1936 como


respuesta al ensayo del matemático alemán David Hilbert “On
Computable Numbers, with an Application to the
Entscheidungsproblem“ donde demostró que algunas de estas
máquinas de Turing serían capaces de realizar cualquier cálculo
matemático concebible si fuera representable con un algoritmo.
También probó que no existe solución al Entscheidungsproblem
(problema de decisión) ya que demuestra que no es posible decidir,
en general, algorítmicamente si una máquina de Turing se encuentra
en parada.

Descripción
La máquina de Turing, modela de forma matemática una máquina que
opera sobre una cinta. En esta cinta hay símbolos que la máquina
puede escribir o leer, uno a la vez. Las operaciones que la máquina
puede realizar están determinadas por un conjunto finito de
instrucciones elementales como “si el estado es 6 y el valor es 0
escribe 1 y pasa al estado 27”.

Una máquina de Turing consta de las siguientes partes:

 Una cinta que está dividida en celdas una al lado de la otra. Cada
celda contiene un símbolo en algún alfabeto finito. Dicho alfabeto
contiene un símbolo especial en blanco (blank symbol escrito como
‘B’) y uno o más símbolos adicionales. La cinta se supone infinita.
 Una cabeza que puede leer y escribir símbolos en la cinta y
mover la cinta a la izquierda o a la derecha una posición.
 Una tabla de reglas finita de instrucciones, usualmente tuplas de
cinco elementos que dado el estado (q ) en el que se encuentra
i

actualmente la máquina y el símbolo (a ) que está siendo leído


j

desde la cinta, indica a la máquina que realice la siguiente


secuencia de acciones:
o Escribe o borra un símbolo

o Mueve la cabeza (a la izquierda o la derecha)

o Asume el mismo o un nuevo estado según lo prescrito


 Un registro de estados donde se guarda el estado de la
máquina de Turing.

Máquina de Turing Universal


Turing definió que es posible desarrollar una única máquina que
pueda ser usada para computar cualquier secuencia computable. Si
esta máquina U es suministrada con una cinta que en su comienzo
esté escrita con tuplas quíntuples separadas por punto y coma
provenientes de una máquina M, entonces U computará las mismas
secuencias que M.
Este modelo de computación supone el avance teórico fundamental
que condujo a la noción de programa de computadora almacenado.

Participación en la lucha contra Enigma

La Enigma fue una máquina electro mecánica con rotor usada para
enviar mensajes cifrados por la Alemania nazi durante la Segunda
Guerra Mundial. Alan Turing participó activamente en el desarrollo
de dispositivos de análisis criptográfico así como aportando muchas
de las ideas que llevaron al posterior éxito en la ruptura del
algoritmo de cifrado que utilizaba la máquina y que supuso un gran
avance en la victoria de los aliados en la contienda.

Turing especificó un mecanismo electro mecánico que ayudaba en la


misión de romper el algoritmo de la máquina Enigma más
rápido que bomba que era el dispositivo de facturación polaca que
se estaba usando hasta la fecha. Al nuevo dispositivo se le
llamó bombe al ser construida sobre el diseño original polaco.

Bombe mejorado con sugerencias realizadas por el matemático


Gordon Welchman, se convirtió en una de las principales
herramientas automatizadas en la lucha contra el tráfico de
mensajes protegidos con Enigma por la Alemania nazi.

Turing decidió tomar parte en resolver el problema con la Enigma


naval Alemana porque y según sus palabras “porque nadie más está
haciendo nada al respecto así que tendré que hacerlo yo mismo“. En
diciembre de 1939, Turing ya había resuelto la parte esencial del
sistema de indicadores que era más complejo que el utilizado por
otros servicios de la Alemania nazi.

El Test de Turing
En 1950, Turing abordó el problema de la inteligencia artificial y
propuso el experimento que hoy se conoce como el test de
Turing cuya intención era intentar definir un estándar por el cual se
pudiera conocer si una máquina podía ser llamada “inteligente“.

La idea consistía en que se puede llegar a decir que una computadora


“piensa“ si un interrogador humano no pudiera distinguir a través de
una conversación, si estuviera conversando con un ser humano o con
una máquina. Turing propuso que en lugar de simular una mente
artificial adulta, era mejor simular una mente infantil para someterla
más tarde a un proceso de aprendizaje.

Conclusión
Desde 1966 se viene entregando de forma anual el premio Alan
Turing por la Association for Computing Machinery a una persona en
reconocimiento a su contribución técnica a la ciencia de la
computación y a la Comunidad. Este premio está considerado como el
mayor honor en el mundo de la computación, comparable al
premio Nobel.

Alan Turing fue otro genio víctima de la irracionalidad y la moralina


caduca. Murió a la edad de 41 años, a pocos días de cumplir 42, si la
vida de Turing no hubiese terminado de forma abrupta y violenta,
seguramente otros muchos avances hubieran llegado de su mano,
avances que nunca sabremos si han sido conseguidos o no.
 John von Neuman

John von Neuman nació en Budapest el 28 de diciembre de 1903, en el seno de una familia de
banqueros acomodada.

De origen húngaro, fue un gran matemático del siglo XX que realizó contribuciones importantes
en la física cuántica, análisis funcional, teoría de conjuntos, ciencias de comunicación,
economía, análisis numérico, cibernética, hidrodinámica de expresiones, estadística y otros
campos de las matemáticas.

Considerado por muchos como “una persona jovial, inteligente, optimista, vividor y mujeriego”,
sus antepasados eran originarios de Rusia, y aunque refugiados y pobres, prosperaron en un
par de generaciones. Su padre poseía el título de hidalguía dado por José I de Habsburgo,
mediante la política aristocrática del imperio, con el fin de servir a fines políticos.

MATEMÁTICAS Y LÓGICA COMPUTACIONAL.


En el campo de las matemáticas, es notable su interés a partir de la apertura de nuevas vías al
desarrollo de la matemática estadística a partir de su estudio en 1928 sobre juegos de
estrategia. Además de participar en la axiomatización de las matemáticas.

Además, también contribuyó al mundo de las matemáticas haciendo significativas aportaciones


en el desarrollo de la lógica computacional.

La necesidad de automatizar sistemas complejos en unidades de tratamiento y memorias de


flujos de información lo llevaron a plantear cuestiones sobre la posibilidad de reproducir
maquinas autómatas. Lo cual le llevo a participar en la construcción de las primeras
computadoras, de ahí su teoría de la arquitectura von neuman.

De ahi que diese su nombre a la arquitectura de von Neumann, utilizada en casi todos los
computadores, ya que fue el el que publicó el concepto; aunque muchos piensan que este
nombramiento ignora la contribución al concepto de J.Presper Eckert y John Willian Mauchly.
Virtualmente, cada computador personal, microcomputador, minicomputador y supercomputador
es una máquina de von Neumann, que más adelante se nombra en un apartado especial. El
termino de máquina de von Neumann se refiere alternativamente a las maquinas
autorreplicativas.

También creo el campo de los autómatas celulares sin computadores, construyendo los
primeros ejemplos de autómatas autorreplicables con lápiz y papel. El concepto de constructor
universal fue presentado en su trabajo póstumo “Teoría de los autómatas autorreproductivos”.
Y, interesándose así por la robótica, en 1952 propuso dos modelos de máquinas
autorreproductoras, una de ellas con la modalidad de reproducción parecida a la de los cristales,
mientras que la otra era más próxima a la forma de reproducirse los animales.

Más tarde, probó que el camino más efectivo para las operaciones mineras a gran escala, como
mirar una luna entera o un cinturón de asteroides, se debía de hacer a través del uso de
máquinas auto-replicativas, para tomar ventaja en el crecimiento exponencial de tales
mecanismos.

Y también contribuyó al estudio de algoritmos. Donald Knuth denomina a von Neumann como el
inventor en 1945 del “algoritmo de merge sort”.

Y entre 1944 y 1946 colaboró en la elaboración de un informe para el ejército sobre las
posibilidades que ofrecía el desarrollo de las primeras computadoras electrónicas; de su
contribución destaca la concepción de una memoria que actuase secuencialmente y no solo
registrara datos numéricos de un problema sino que además almacenase un programa con las
instrucciones para la resolución del mismo.

Además investigo en problemas del campo de la hidronamica numérica. Junto con R.D.


Richtmyer desarrollo un algoritmo de viscosidad artificial para entender las ondas de choque.

 Arquitectura Von Newmann.


Debido a la importancia de la von Neumann en el desarrollo de las computadoras, cabe destacar
por encima lo que es este tipo de máquina.

Es una familia de arquitecturas de computadoras que utilizan el mismo dispositivo de


almacenamiento tanto para las instrucciones como para los datos.

La mayoría de las computadoras de hoy en día se basan en este tipo de arquitectura, aunque
pueden incluir otros dispositivos adicionales.

Surgió como consecuencia de la colaboración de Newmann en el proyecto ENIAC. Newmann ,


consciente de la torpeza de la aritmética decimal utilizada en las computadoras de este proyecto
podría reemplazarse utilizando la aritmética binaria, realizo un diseño básico llamado la máquina
de Von Newmann . El programa se implanto en la computadora de EDVAC.

Se estructura en 5 partes básicas:

1. Memoria (MI)
2. Unidad aritmética lógica(ALU)
3. Unidad de control del programa.
4. Equipos de entrada y salida.
MEMORIA: Expresada en bits, constaba de 4096 palabras cada una de 40 bits. Cada palabra
contenía hasta 2 instrucciones de 20 bits cada una o un numero entero de 39 bits y su signo.

UNIDAD ARITMÉTICA LÓGICA (ALU) : Supervisa la transferencia de información y la indica a la


unidad aritmética lógica la operación que debe ejecutar.

UNIDAD DE CONTROL DEL PROGRAMA: Se encarga de realizar las operaciones aritméticas y


lógicas necesarias para la ejecución de una instrucción.
EQUIPOS DE ENTRADA Y SALIDA: La entrada o input es cualquier dispositivo a través del cual
se introduce información a la computadora. La salida o output es cualquier dispositivo que recibe
información de la máquina para poder ser  utilizada por usuarios.

Los primeros ordenadores, con sistemas de numeración decimal y complicada electrónica con
muchos fallos y un sistema de programación cableado, hizo que von Newman propusiese dos
principios básicos que llevarían a la revolución de la informática del momento. En primer lugar,
la utilización del sistema de numeración binario y en segundo lugar el almacenamiento de la
secuencia de instrucciones de que consta el programa de memoria interna.

A continuación se expone el esquema del modelo de von Newmann:

 
 
POLITICA Y ASUNTOS SOCIALES.
Habiendo experimentado una carrera académica “Relampago” obtuvo con 29 años una de las
primeras cinco plazas profesionales en el Institute for Advanced Study (instituto para estudios
avanzados) en Princeton (una de las cuales fue para Einstein).

Sintiéndose por esta época obligado a buscar otros campos de interés con el objetivo de
satisfacer su ambiciosa personalidad, y lo encontró en su colaboración con el complejo militar-
industrial americano.

Fue frecuentemente consultado por la CIA, el Ejercito de los Estados Unidos, la corporación
RAND, Standard Oil, IBM y otros.

Políticamente se definía “violentamente anticomunista y mucho más militarista que la normal”.

Como presidente del Comité para misiles de von Neumann y como miembro de la comisión de
energía atómica, era el científico con mayor poder político de estados unidos.

Desarrollo varios escenarios de proliferación nuclear, misiles submarinos e intercontinentales


con cabezas atómicas y el muy controvertido equilibrio estratégico llamado destrucción
mutuamente asegurada.

En pocas palabras, era la mente diestra de los aspectos científicos de la guerra fría que
condiciono al mundo occidental por cuarenta años.
En 1943 el ejército estadounidense reclamo su participación para fabricar bombas atómicas, y a
partir de entonces colaboro con los militares, y posteriormente colaboró en la fabricación de la
bomba de hidrogeno y en el desarrollo de misiles balísticos.

Por lo tanto, el resultado notable de su investigación en este campo fue el descubrimiento de


que las bombas de larga dimensión son más devastadoras que si se detonan antes de tocar el
suelo; la participación en proyectos para el diseño de explosivos de contacto; y la especial
contribución a la construcción de la bomba de hidrogeno.

De ahí que su interés en problemas de matemática aplicada, e hicieran convertirse en uno de


los más grandes expertos en materia de explosivos y se comprometió con un gran número de
consultorías militares, principalmente para la marina de estados unidos.

En 1955 fue nombrado miembro de la comisión de energía atómica del gobierno


estadounidense.

 Gordon E. Moore

 
Cuando, en 1965, Gordon E. Moore escribió el artículo que originaría
la Ley de Moore, probablemente no podría imaginar ni sus
repercusiones, ni que estaba estableciendo uno de los parámetros
más reconocidos y citados en la historia de la tecnología.
En aquella época, el joven Moore era director de los laboratorios de
Fairchild Semiconductor, y aún faltaban 3 años para que fundara
Intel junto con su compañero Robert Noyce. Con el sector de la
microlectrónica aún en pañales, muchos dudaban de la capacidad y
las aplicaciones de negocio del sector. Sin embargo, Moore fue
capaz de detectar una tendencia que anunciaba un futuro
prometedor para la industria, y entusiasmado por sus posibilidades
la pasó a plasmar en su artículo.

¿Qué es la Ley de Moore?


La formulación de la Ley de Moore es muy sencilla: el número de
transistores que contiene un microprocesador se duplica cada
aproximadamente 2 años.
Aunque originariamente Moore establecía la duplicación en un
periodo anual, diez años después reformuló su predicción
ampliándola hasta el periodo que consideró más ajustado a la
realidad.
Pero, ¿por qué motivo una predicción de carácter técnico y que
realmente no es una ley física sino una observación basada en la
experiencia ha alcanzado tal notoriedad?
Probablemente podamos explicar dicho fenómeno en base a dos
constataciones:

1. La Ley de Moore se ha mostrado sorprendentemente efectiva, de tal


forma que, hasta el día de hoy, se ha venido cumpliendo de forma
bastante rigurosa, hasta el punto de que ha ido marcando el calendario de
las principales fabricantes de microprocesadores del mundo (incluida la
propia Intel).
2. La Ley de Moore tiene la cualidad de explicar de forma sencilla el poder
de la informática. Si la reducimos a una formulación tal vez imprecisa pero
fácil de entender por el gran público, podemos decir que la Ley de Moore
predice que la potencia y la velocidad de los ordenadores se duplica cada
24 meses. Y eso tiene enormes implicaciones.

¿Qué implica la Ley de Moore?


Como consecuencia de la Ley de Moore, se han hecho un enorme número de
predicciones que, tomadas de su mano, han intentado durante años augurar el futuro
de la informática.
Por ejemplo, una predicción comercial enfoca la Ley de Moore afirmando que, dado
que las prestaciones de los microprocesadores se duplican cada dos años, su precio
se reduce en la misma proporción.
Otras van más allá y vinculan la Ley de Moore con el desarrollo de la Inteligencia
Artificial. Así, y estimando la continuidad de dicha Ley y la potencia de cálculo de la
que se considera dispone un cerebro humano, predicciones como la formulada por la
Ley de Rendimientos Ccelerados de Ray Kurzweil estiman que la paridad entre la
velocidad de procesamiento de los ordenadores y la del cerebro humano se alcanzará
alrededor de 2019.

¿Durante cuánto tiempo se seguirá cumpliendo la Ley de


Moore?
Se trata de una cuestión que ha sido objeto de un fuerte debate durante los últimos
años. Dado que se trata de una observación empírica y no de una ley física, no existe
garantía alguna que nos permita sostener que la Ley de Moore se seguirá cumpliendo
de una forma permanente.
El propio Gordon Moore ya anunció su final en 2007, afirmando que no se
prolongaría más allá de otros 10 o 15 años, lo que situaría su término en fechas muy
cercanas. De hecho, algunas voces afirman que ya se está incumpliendo en la
actualidad, a raíz de ciertos retrasos en la industria que se han dado en fechas
recientes.
Y es que las propias leyes de la física ponen las cosas cada vez más difíciles a los
ingenieros que se encargan de hacer que la Ley se siga cumpliendo. Así, los límites
físicos en lo que a manipulación de materia se refiere cada vez se acercan más (ya se
manejan dimensiones en el entorno de los 10 nanómetros) y ofrecen dificultades cada
vez mayores en cuestiones relativas al recalentamiento de los materiales, lo que
supone desafíos que la propia industria tiene dificultades para superar.

¿Cómo seguir manteniendo viva la Ley de Moore?


Como ya hemos dicho, no se trata de que la Ley de Moore sea un principio de la física
que debamos cumplir a rajatabla, pero sí se ha convertido en una referencia que la
industria de los microprocesadores pretende cumplir porque, de su mano, múltiples
tecnologías están involucradas.
Así, la tecnología móvil, la Inteligencia Artificial, vehículos autónomos y cualquier otra
tecnología que involucre a la informática esperan, como agua de mayo, que la Ley de
Moore se siga cumpliendo.

También podría gustarte