Internet: De la cuna a la hiperconectividad

Internet: De la cuna a la hiperconectividad

La gran evolución del internet

La herramienta que nació como un proyecto militar con el fin de mantener la comunicación entre diferentes puntos de Estados Unidos, se ha convertido en algo fundamental en nuestro día a día.



¿Quién se acuerda de la vida antes de que este fenómeno apareciera?

Y NO FUE HACE TANTO, PUES SU NACIMIENTO OFICIAL FUE EN 1969. 
COLOMBIA SE CONECTA A INTERNET, EL 4 DE JUNIO DE 1994; POR MEDIO DE UNA SEÑAL QUE UTILIZA IMPSAT SE REDIRECCIONA DESDE LA TORRE COLPATRIA Y LLEGA A UNIANDES. A PARTIR DE ESTE AÑO SE ORGANIZA EL PANORAMA PARA EL DESARROLLO DE LA INTERNET.

Primera conexión


LA PRIMERA CONEXIÓN FUE ENTRE LOS ORDENADORES DE STANDFORD Y UCLA, MOMENTO EN EL QUE TAMBIÉN NACIÓ ARPA .
Poco después de este acontecimiento se podían numerar con los dedos de una mano las universidades conectadas.

1-Red que acabó denominándose ARPANET y su objetivo era mantener estas comunicaciones en caso de guerra.
2-No fue hasta 1970 cuando ARPANET se consolidó del todo. Momento en el que Roy Tomlinson envió su primer email.
3-Aparece el virus llamado Creeper.

 
como en toda historia importante, siempre hay varias fechas señaladas. En los 80 el número de ordenadores fue aumentando y su demanda creciendo a la par

1-1982 empieza a producirse una mejora de sus capacidades con la creación de los emoticonos. 
2-1989, Tim Bernes Lee, describió el protocolo de transferencia de hipertextos dando lugar a la primera web a través de 3 nuevos recursos: HTTP, HTML y Web Browser. 
3-1991 los usuarios externospudieron acceder a estainformación. Desde entonces elmundo digital empezó a crecer a unritmo agigantado. 


www 
World Wide Web que en tan solo cuatro años pasó de 100 World Wide Sites a más de 200.000.

1-En 1994 se funda Yahoo! y justo al año siguiente Microsoft lanza Internet Explorer 
2-1998 nace Google 
3-2001 se conoce como el nacimiento de Wikipedia, la enciclopedia digital. 


2003 y 2005 Se generan varios hitos en la evolución de internet gracias a la aparición de diferentes plataformas.

De la web estática a la web ubicua: ¿qué es y cómo hemos llegado a la Web 4.0?

La Web 1.0 es la original, el principio, el primer contacto que tuvimos con un entramado de páginas web, en las que básicamente nos limitábamos a consumir contenido sin más actualización o interacción.

La Web 2.0, por su parte, fue la primera gran evolución. La conocida web social nos ha permitido intercambiar información entre usuarios a través de blogs o las populares redes sociales que hoy usan millones de usuarios en todo el mundo.

La Web 3.0 o web semántica es un salto tecnológico desde esa versión 2.0. En la Web 3.0, la clave y principal factor diferencial es el cómo accedemos a la información. Aquí los buscadores son clave pero no por sus mejores algoritmos, mayor indexación de información u otros extras, lo son porque permiten hacer uso de un lenguaje más natural, de forma que obtenemos una web (información) más personalizada, descartando información que para cada uno de nosotros será irrelevante.

La Web 4.0 es el próximo gran avance y se centra en ofrecer un comportamiento más inteligente, más predictivo, demodo que podamos con sólo realizar una afirmación poner en marca un conjunto de acciones que tendrán como resultando aquello que pedimos o decimos.

¿PARA QUÉ SIRVE LA WEB 4.0? 

Esta nueva versión de la red se basa en explotar toda la información que ahora mismo contiene, pero de una forma más natural y efectiva.
Un nivel de interacción más completo y personalizado. Es decir, puedes decirle «Reserva una mesa para cenar hoy» o «Pide un taxi» a tu dispositivo -que puede ser un smartphone, wearable o quién sabe cuál- y automáticamente ejecuta dicha acción sin más intervención propia. 

Estas son sus funcionalidades: 
Ofrece soluciones a partir de toda la información que existe en la web.Para lograrlo, se fundamenta en cuatro pilares. La comprensión del lenguaje natural y tecnologías Speech to text (de voz a texto y viceversa). Nuevos sistemas de comunicación máquina a máquina (M2M). Uso de la información de contexto. Por ejemplo, ubicación que aporta el GPS, ritmo cardiaco que tu smartwatch registra, etc. Nuevo modelo de interacción con el usuario. 

¿Cómo llegamos a la Web 4.0.? 
Gracias a la propia evolución de la tecnología. Empresas como Google, Microsoft o Facebook, entre otras, están desarrollando nuevos sistemas que gracias al Deep Learning y Machine Learning serán capaces de procesar información de forma similar a como lo haría el cerebro humano.

¿Machine Learning?
Es una disciplina del campo de la Inteligencia Artificial que, a través de algoritmos, dota a los ordenadores de la capacidad de identificar patrones en datos masivos y elaborar predicciones (análisis predictivo). Este aprendizaje permite a los computadores realizar tareas específicas de forma autónoma, es decir, sin necesidad de ser programados.

Aprendizaje supervisado:
Estos algoritmos cuentan con un aprendizaje previo basado en un sistema de etiquetas asociadas a unos datos que les permiten tomar decisiones o hacer predicciones. Un ejemplo es un detector de spam que etiqueta un e-mail como spam o no dependiendo de los patrones que ha aprendido del histórico de correos (remitente, relación texto/imágenes, palabras clave en el asunto, etc.).

Aprendizaje no supervisado:
Estos algoritmos no cuentan con un conocimiento previo. Se enfrentan al caos de datos con el objetivo de encontrar patrones que permitan organizarlos de alguna manera. Por ejemplo, en el campo del marketing se utilizan para extraer patrones de datos masivos provenientes de las redes sociales y crear campañas de publicidad altamente segmentadas.

Aprendizaje por refuerzo:
Su objetivo es que un algoritmo aprenda a partir de la propia experiencia. Esto es, que sea capaz de tomar la mejor decisión ante diferentes situaciones de acuerdo a un proceso de prueba y error en el que se recompensan las decisiones correctas. En la actualidad se está utilizando para posibilitar el reconocimiento facial, hacer diagnósticos médicos o clasificar secuencias de ADN

¿Qué es deep learning?
Deep learning es un subconjunto de machine learning (que a su vez es parte de la inteligencia artificial) donde las redes neuronales, algoritmos inspirados en cómo funciona el cerebro humano, aprenden de grandes cantidades de datos.

Los algoritmos de deep learning realizan una tarea repetitiva que ayuda a mejorar de manera gradual el resultado a través de ‘’deep layers’’ lo que permite el aprendizaje progresivo. Este proceso forma parte de una familia más amplia de métodos de machine learning basados en redes neuronales.

Los algoritmos de deep learning realizan una tarea repetitiva que ayuda a mejorar de manera gradual el resultado a través de ‘’deep layers’’ lo que permite el aprendizaje progresivo. Este proceso forma parte de una familia más amplia de métodos de machine learning basados en redes neuronales.

Características de deep learning

Asistente de experimentos
 Inicie y supervise los experimentos de entrenamiento por lotes y luego compare el rendimiento entre modelos en tiempo real sin preocuparse por las transferencias de registro y los scripts para visualizar los resultados

Cómputo de GPU elástico 
Capacite redes neuronales en paralelo, utilizando las GPU K80, P100 y V100 de NVIDIA Tesla, que son líderes del mercado. Pague sólo por lo que utiliza. Con la asignación automática, no tiene que acordarse de cerrar sus instancias de capacitación en la nube. No hay clústeres o contenedores para administrar

Beneficios de deep learning

Ahorre tiempo, y no solo dinero 
Utilice su IDE preferido y sus flujos de trabajo existentes. La CLI, la biblioteca Python y el acceso REST están equilibrados mediante herramientas de depuración visual. Diseñe y optimice sus redes mejor y más rápido.

Inteligencia bajo demanda 
El entrenamiento gestionado implica que usted se puede enfocar en el diseño de estructuras de red neuronales óptimas. Los activos de entrenamiento se almacenan para usted. La asignación automática significa que sólo paga por los recursos de cálculo necesarios para el trabajo.

Infraestructura de nube confiable 
Optimizado para entornos de producción empresarial, se ejecuta en la misma infraestructura que hospeda los servicios cognitivos de IBM Watson.

Colaboración en equipo
Comparta experiencias, depure arquitecturas neuronales, acceda a datos comunes en bibliotecas alojadas y entregue modelos versionados a su equipo para ayudar a alimentar un flujo continuo de aprendizaje con datos.





Comentarios