Día de Internet: los datos en la red «son el petróleo del futuro»

La unión del conjunto de protocolos que supuso la creación de Internet se dio en 1982 y, desde entonces, los expertos ya vaticinaban que se encontraban ante una revolución donde los datos eran importantes. Esta ha seguido avanzando hasta nuestros días. 

Uno de los servicios claves de Internet son los World Wide Web que transmite datos con el protocolo de transferencia de hipertexto (HTTP).[@skylarvision] de Pixabay

Antes de Internet, las personas solo buscaban información en los libros, interactuaban con otros a distancia a través de cartas físicas y recurrían a mapas de papel para encontrar una ubicación concreta. Gracias a su creación, Google u otros buscadores o novedades como ChatGPT se han convertido en nuestro ABC de la información, las redes sociales y las videollamadas permiten que nos mantengamos en contacto incluso cuando hay kilómetros que nos separan y Google Maps y otras apps similares sirven para que encontremos nuestro destino en una ciudad desconocida.

Hoy, 17 de mayo, se celebra el día de Internet y, de los inventos de la humanidad, es posiblemente uno de los que más merezca una fecha marcada en el calendario. Esta celebración tiene el objetivo de dar a conocer cómo las nuevas tecnologías mejoran y cambian la vida de las personas. Asimismo, Internet también se ha convertido en una herramienta más para los negocios, tanto para recopilar los datos de los usuarios como para almacenar la propia información confidencial de forma segura en la nube, convirtiéndose en el ‘oro’ de la economía digital.

La idea de otorgarle un día especial surgió en España en 2004, como una propuesta de la Asociación de Usuarios de Internet. La primera vez que se celebró fue un 25 de octubre de 2005, sin embargo, tras la declaración de Túnez, la fecha pasó al 17 de mayo hasta la actualidad. 

La historia de Internet

El gran precedente del nacimiento de Internet fue ARPANET, es decir, la Red de la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa de EEUU, que se desarrolló en 1969.

Antes de Internet, estuvo ARPANET, que fue la la Red de la Agencia de Proyectos de Investigación Avanzada del Departamento de Defensa de EEUU.Erica Fischer de Flickr

Dentro de la empresa Beranek and Newman (BBN), que tenía contrato de ARPANET, trabajaba Ray Tomlinson que, en 1972, presentó un modelo de correo electrónico en red. Ese mismo año se creó el Grupo de Trabajo de Internet que abordaba la necesidad de establecer protocolos estándar que, más adelante, se emplearían para la comunicación en Internet.

 

El término Internet llegó en 1973, con la creación de redes globales gracias a la conexión de APRANET al University College of London (Inglaterra) y al Royal Radar Establishment (Noruega). Hasta 1974, no se desarrolló el primer proveedor de servicio de Internet, con Telenet, una versión comercial de APRANET.

Cinco años después, se formó USENET, otra versión que, en este caso, pretendía recopilar noticias y grupos de discusión. En 1981, la Fundación Nacional de Ciencias otorgó una subvención para crear una Red de Ciencias de la Computación, que daba servicios de red a los científicos informáticos de las universidades.

Por fin, en 1982, se origina el germen de lo que realmente conocemos a día de hoy como Internet que es un conjunto de protocolos conocido como TCP/IP, que son las siglas en inglés de Protocolo de Control de Tansmisión y Protocolo de Internet. A partir de ahí, el Sistema de Nombres de Dominio (DNS) establece los .com, .es, .gov, .edu, .net, .int, .org, etc.

World Wide Web

Las webs son uno de los servicios de Internet que más éxito han tenido, tanto que hay quien utiliza el término como su sinónimo. La WWW o World Wide Web es un sistema que funciona a través de Internet que transmite datos con el protocolo de transferencia de hipertexto (HTTP) y que son los enlaces a las páginas que visitamos por los navegadores.

Este servicio se desarrolló entre marzo y diciembre de 1989, gracias al trabajo del inglés Tim Berners-Lee que contó con la ayuda del belga Robert Cailliau, cuando eran empleados del CERN. Sin embargo, la propuesta formal de la web no llegó hasta 1991.

La diferencia de World Wide Web y otros sistemas de hipertexto que ya existían es que la WWW solo necesitaba enlaces unidireccionales y no bidireccionales, lo que permitía que los usuarios enlazasen a otro recurso sin que el propietario de este tuviese que aprobarlo. De este modo, fue más sencillo añadir servidores web y navegadores, pero también suponían un problema de enlaces rotos (webs eliminadas).

La llegada de Google

Pese a que Internet ya se presentaba desde su germen como un invento revolucionario, la llegada del motor de búsqueda de Google cambió, no solo la forma de entender Internet, sino también la manera en la que interactuábamos con el mundo.

Google cambió la forma de utilizar Internet, algo que se prevé que ocurrirá con los modelos de lenguaje de gran tamaño.Pixabay

Su lanzamiento lo comparan algunos con ChatGPT en la actualidad. Esta Inteligencia Artificial ha hecho que hasta Alphabet, empresa matriz de Google, se ponga las pilas en el desarrollo de IA y, recientemente, ha lanzado la versión beta de Bard, que podría presentarse como la rival del chatbot de OpenAI.

La importancia de los datos en la era de Internet

Rafael Quinana, director regional de Qlik, empresa especializada en analítica e integración de datos, explica para 20BITS cómo los datos se han convertido «en un activo fundamental y de un valor incalculable para todas las compañías que quieran tener un hueco en la economía digital». Esto se puede apreciar desde los albores de Internet, pero ha ido creciendo con los cambios cada vez más rápidos que se van produciendo.

Tanta es la relevancia de los datos en Internet que, tal y como recalca Quintana, la consultora IDC estima que se generarán hasta 163 zetabytes de datos digitales con vistas al 2025 y, además, «hay quien afirma que son el petróleo del futuro». Por ese motivo, las empresas que aboguen por la transformación digital deben asegurarse de ser capaces de “moverse eficientemente entre grandes cantidades de datos”, con el objetivo de sacar el máximo partido.

No obstante, Quintana recuerda que hay otra cara de la moneda que las compañías también tienen que tener en cuenta porque limita su margen de maniobra: las regulaciones que hacen los organismos, que tratan de garantizar el buen uso de la información de los usuarios. El experto detalla que desde Qlik, la empresa en la que trabaja, se encarga de la alfabetización de datos (Data Literacy) que consiste en «leer, interpretar y analizar los datos», lo cual ayuda a cumplir con las normativas.

¿Cómo se mueven los datos por Internet?

La clave de Internet se encuentra en infraestructuras, como los cables submarinos y los data centers de los que hemos hablado muchas veces en 20BITS, que permiten el tráfico de datos de Internet. Además de ello, la nube es crucial para la gestión de datos y cada vez más empresas y organismos trasladan su información de lo físico y analógico a la nube, como apunta Quintana.

«Este auge del cloud ha permitido que las organizaciones dispongan de la información necesaria en cualquier lugar y que se desarrollen herramientas de analítica e integración de datos que pueden hacer accesible la información independientemente de dónde esté alojada y en tiempo real, evitando que se quede en silos aislados y no se aproveche todo su potencial», cuenta el experto de Qlik.

Fuente: www.20minutos.es

Qué es un honeypot y cómo implementarlo en nuestra red

Si bien muchos lectores ya saben qué es un honeypot, pensando en aquellos que no han implementado el uso de esta herramienta y lo útil que puede ser para los administradores de sistemas a la hora de mejorar la seguridad de la red, consideramos oportuno aprovechar la celebración del día del SysAdmin para explicar qué es un honeypot, qué tipos de honeypot existen y cómo recolectar información sobre los ataques que recibe este sistema para luego procesarla y tomar decisiones que permitan mejorar la seguridad de una red.

Qué es un Honeypot y cómo implementarlo en nuestra red

Un honeypot es un sistema que podemos configurar en nuestra red con el objetivo de registrar los ataques que éste recibe y que nos puede servir como una alerta temprana para prevenir otros ataques en la red, para saber si somos blanco de algún tipo de ataque o para entender mejor el panorama al que nos enfrentamos. Además, nos permite obtener la procedencia de las amenazas que existen y las técnicas a las cuales nos podemos enfrentar.

Un honeypot es un sistema de señuelo en la red, por lo tanto, no hay razón legítima para que los usuarios de una organización intenten acceder a él, lo que hace que sea mucho más fácil detectar ataques, ya que prácticamente cualquier interacción con el equipo puede ser considerada maliciosa. La idea mediante la implementación de este sistema es hacerle creer a un atacante que está apuntando a un sistema real, sin embargo, estará desplegando sus actividades maliciosas en un ambiente controlado por nosotros.

Podemos implementarlos en el interior de nuestra red (delante del firewall externo), que puede servir para indicarnos que un atacante ya obtuvo acceso a nuestra red y está intentando realizar un movimiento lateral o bien, en el exterior de nuestra red, para detectar ataques externos. Por otra parte, podemos tener varios honeypot instalados en nuestra red y conformar lo que se conoce como un honeynet.

Qué tipos de honeypot existen

  • De interacción alta

Es un servidor que posee servicios reales instalados, al igual que cualquier otro servidor en la organización. Debemos tener cuidado de que esté perfectamente aislado del resto de la red para impedir que un ataque exitoso finalmente le de acceso a la red al atacante. La información que se genera en este sistema es sumamente detallada. Además, es más difícil que un atacante pueda darse cuenta de que está siendo engañado y que se dirige hacia nuestra “trampa”. En este tipo de honeypot podemos implementar nuestras propias herramientas, como podría ser un servicio HTTP que obtenga el fingerprint -o huella- del atacante para identificar de forma única al equipo del que proviene la amenaza.

  • De interacción media

Tiene algunos servicios básicos, como puede ser un servidor web o FTP, que se pueden programar para dar algún tipo de respuesta al atacante; por ejemplo, devolver un banner del servicio. Más allá de la respuesta básica, los servicios no son reales —emulan servicios reales— por lo tanto, el atacante no puede obtener acceso al sistema. La información que se genera en este tipo de honeypot es considerablemente menor que en un honeypot de alta interacción, pero son más fáciles de mantener e implementar.

  • De interacción baja

Simula solo algunos servicios de red básicos, como la conectividad TCP/IP, ICMP, NetBIOS, etc. La información que podemos recolectar de este tipo de Honeypot es mucho más escasa, básicamente solo podremos saber si alguien está escaneando la red, pero no podremos obtener más información sobre las técnicas o las intenciones detrás de dicha acción. Su implementación en la red es mucho más segura, aunque, por otro lado, un atacante experimentado podría darse cuenta de que el equipo es un señuelo y abandonar sus planes.

Opciones para la recolección de información valiosa

De nada serviría la implementación de un honeypot en la red si no recolectamos la información que éste genera y la utilizamos para fines productivos. Según el Reporte de Data Breaches del 2017 elaborado por Verizon, un atacante permanece, en promedio, 149 días en nuestra red antes de que su actividad sea detectada. El análisis de la información generada en un honeypot interno puede ayudarnos a reducir este tiempo. Esta información debería servirle al equipo de respuesta ante incidentes o al SOC de la organización para implementar los controles o mitigaciones apropiadas.

  • Integración con él EDR corporativo: El honeypot puede estar integrado al EDR corporativo, idealmente de forma separada para no contaminar las alertas provenientes de los sistemas reales de la red. La ventaja de utilizar un EDR, como el que ofrece ESET a través de su herramienta Enterprise Inspector, es que podremos analizar la mecánica de los ataques de forma más rápida y sencilla.
  • Integración con sistemas IDS: Podemos implementar un IDS como Suricata (software libre) para generar alertas automatizadas cuando nuestro honeypot sufra algún tipo de ataque.
  • Análisis manual: Otra opción es recolectar la información y generar reportes de forma manual, o con herramientas desarrolladas “in-house” que sirvan a las necesidades específicas de la organización.

T-Pot

T-Pot es un desarrollo de código abierto que combina honeypots de baja y alta interacción en un único sistema. Su implementación es bastante sencilla (no debería tomar más de 30 minutos en desplegarse) y nos permite emular servicios de red como Android ADB, hardware de red vulnerable como routers, SCADA, SSH, Telnet, DICOM, Elasticsearch, FTP, RDP, HTTP/S, postgreSQL, MSSQL, POP3, SMTP, SMB, entre otros.

Si bien lo ideal es crear un honeypot personalizado con los mismos servicios que se prestan en nuestra red y nada más, T-Pot es una forma más rápida y sencilla de desplegar un honeypot si no poseemos el tiempo o los recursos para desarrollar uno propio. Además, puede ser configurado de acuerdo con las necesidades específicas de la organización.

Una de las ventajas es que provee una interfaz gráfica para visualizar la información generada de forma sencilla y generación de reportes. Puede ser desplegado tanto en máquinas físicas como virtuales.

Vista de Cockpit – el dashboard web de T-Pot

Conclusión

Un honeypot es una herramienta poderosa que un administrador de red o encargado de seguridad puede implementar para descubrir posibles amenazas, capturar muestras de malware, generar una alerta temprana sobre un ataque y para conocer las técnicas que los atacantes pueden utilizar contra la organización.

Fuente : www.welivesecurity.com

La Neutralidad en la Red, herida de muerte en EE.UU.

La Comisión Federal de Comunicaciones de Estados Unidos (FCC) acaba de votar con un 3 a 2 acabar con las normas que protegen la neutralidad de la red, y que permiten que todos los servicios compitan en igualdad de condiciones. Se trata de la puesta en marcha de un plan presentado por Ajit Pai, presidente del organismo.

neutrality_dead_noticia_fotograma

Esta decisión hará que Estados Unidos de un importante paso atrás en materia de libertades de la red. Y de paso normalizarán una situación que podría dar pie a que en otros sitios como Europa las cosas también empezasen a cambiar, y al final todos los usuarios suframos las consecuencias de esta decisión.

Un paso para adelante, dos para atrás

Hace tres años la situación era bastante parecida en Estados Unidos, y en mayo del 2014 la FCC había votado a favor de seguir con un plan para crear un Internet de dos velocidades. El futuro de la neutralidad pintaba muy oscuro, pero todo acabó dando un giro de 180 grados al surgir otra propuesta totalmente opuesta que acabó imponiéndose en 2015.

Con ella se estableció que Internet pasase un servicio básico como la electricidad y el agua, y obligaba a los operadoras a garantizar un acceso igualitario. Se trató por lo tanto de una legislación atrevida que llegó cuando menos se esperaba, y que supuso un ejemplo a seguir para el resto de países. De hecho, algunos países europeos ya se habían posicionado a favor del Internet de dos velocidades, y finalmente la Unión Europea también acabó legislando para proteger la neutralidad.

Pero la normativa europea no es lo suficientemente rotunda, y deja la puerta abierta a que cada país tenga el poder de decidir sobre el zero-rating. Eso ha provocado que operadoras como Orange, Vodafone o FreedomPop hayan sacado tarifas en las que el tráfico de determinadas aplicaciones tiene más privilegios que el de otras.

Estados Unidos seguía siendo por lo tanto el espejo en el que mirarse, un referente. Aunque todo empezó a cambiar este año con la aparición de Ajit Pai, que desde su puesto de la presidencia de la FCC decidió dar marcha atrás y cargarse la neutralidad. Con ello las operadoras podrán decidir qué aplicaciones tienen más privilegios que otras.

Organizaciones de usuarios, empresas, e incluso algunos miembros de la FCC se han posicionado en contra de esta situación, pero el organismo no ha dudado en utilizar botnets para aparentar un falso apoyo. Por si fuera poco, el propio Ajit Pai ha publicado un vídeo burlándose de la neutralidad de la red para desinformar a los usuarios tratando de hacerles creer que nada va a cambiar.

Qué cambia con la ley aprobada hoy

Pero las cosas sí van a cambiar. Para empezar, los primeros perjudicados por la aniquilación de la neutralidad en Estados Unidos serán los propios usuarios estadounidenses. Hoy Internet deja de ser considerado un servicio básico como la electricidad y el agua, y deja de garantizarse un acceso igualitario como se estaba haciendo desde que se aprobaron las últimas normas.

Esto pone en manos de las operadoras el poder hacer prácticamente lo que quieran. Pueden bloquear el acceso a determinados servicios, acelerar la velocidad a la que se accede a otros, o incluso priorizar el contenido que quieran. La única condición que tienen que cumplir es hacer públicos estos cambios.

Así será más difícil que los servicios de terceros puedan competir en igualdad de condiciones. También abre la puerta a que las propias operadoras puedan utilizar este poder para priorizar sus propios servicios penalizando otras aplicaciones sin que ni estas ni los usuarios puedan impedirlo.¡

Esto a la larga podrá acabar provocando que los propios servicios tengan que negociar con las operadoras para que sus usuarios puedan acceder correctamente a ellos, lo que hará que los que no tengan los suficientes recursos queden desterrados del Internet de alta velocidad y vean lastrada su adopción y su futuro.

Así nos afecta a los demás

union_europea

En Europa tenemos nuestras propias leyes y lógicamente no se aplican directamente las de EEUU. Sin embargo, muchos de los servicios que utilizamos son de Estados Unidos o tienen gran parte de sus usuarios allí, desde Facebook hasta la propia Google pasando por muchos otros servicios de menor potencia. Por eso, lo que hagan las operadoras en aquel país puede perjudicarles y repercutir en cómo funcionan a nivel técnico o económico en todo el mundo.

También hay que tener en cuenta que las nuevas normas dañan la competencia entre servicios. Con las operadoras al poder, muchos servicios tendrán que negociar para conseguir funcionar correctamente para muchos usuarios. Esto perjudicará posiblemente a todos los que empiezan o ya compiten contra los más grandes. Y al final esto hace que todos tengamos menos libertad de elección independientemente de si somos de EE.UU. o de fuera.

El que los servicios tengan que negociar con las operadoras para obtener un trato favorable también constituye otro problema para todos. Muchos servicios no querrán perder dinero, por lo que al final lo que ellos tengan que pagarles a las operadoras lo acabaremos pagando también todos los consumidores.

Y esperemos que las operadoras europeas y la UE no tomen ahora nota y quieran imitar a sus homólogos estadounidenses. Porque ese es otro de los peligros de la decisión que se ha tomado hoy allí, que haga que otros países en todo el mundo acaben cediendo a las presiones del lobby de las operadoras y tomando decisiones parecidas.

Fuente: www.linux-party.com

Castilla-La Mancha ya tiene una Red Profesional GNU/Linux y software libre

red_profesional_castilla_la_manchaCastilla-La Mancha ya cuenta con una Red Profesional de empresas proveedoras de tecnología GNU/Linux, un proyecto puesto en marcha por la Junta de Comunidades de Castilla-La Mancha a través del Centro de Apoyo Tecnológico a Emprendedores —BILIB— y en colaboración con la Federación de Empresas de Tecnología de la Información de Castilla-La Mancha (FEDETICAM), que aboga por acercar las virtudes y ventajas que aporta el llamado software libre

03-10-2014 – La Red, dirigida a empresas, administraciones, autónomos y usuarios en general, permitirá a todos ellos encontrar fácilmente proveedores especializados en software libre a lo largo de las cinco provincias de Castilla-La Mancha, quienes les informarán y asesorarán de las enormes posibilidades que otorga esta tecnología para desarrollar sus proyecto, ha informado GNU-Linux en un comunicado.

Los servicios de la Red no se limitarán a los sistemas operativos GNU/Linux, sino que su capacidad para el desarrollo de aplicaciones de gestión, entre otras, permitirá ofrecer un servicio de software libre a la carta y totalmente personalizado. Todo ello sin la necesidad de adquirir licencias, con el consiguiente ahorro de costes que, precisamente, permitiría invertirse en la adaptación del software a las necesidades concretas del usuario o la empresa para optimizar el rendimiento.

Esta red profesional GNU/Linux abarca desde los servicios de distribución y suministro de software hasta el soporte técnico y el servicio postventa.

La tecnología Linux, y al margen de su facilidad de descarga, se caracteriza por su versatilidad, usabilidad y su fácil manejo. Además, los sistemas no se degradan con facilidad, mantienen un rendimiento estable con el paso de los años, reduciendo el mantenimiento, sin olvidar de los altos niveles de seguridad de estos sistemas, con una casi nula presencia de virus informáticos.

Fuente: http://guai.internautas.org/

Cierran la empresa responsable que mantiene el Linux Chino más popular

tux-flag-linux-penguin-red-wavingRed Flag Software, empresa financiada por el gobierno chino y responsable de la otrora popular distro de Linux, se ha visto obligada a cesar sus actividades.

Red Flag llegó a ocupar en el pasado el segundo puesto dentro de las distribuciones de Linux con más usuarios, pero ahora la empresa responsable de su desarrollo ha acabado cerrando.

Con el nombre de Red Flag Software, el gobierno chino creó en 1999 una empresa dedicada al desarrollo de un sistema operativo basado en Linux con versiones para escritorio y servidores.

La apuesta open source del gigante asiático deseaba competir contra Microsoft y llegó a alcanzar importante notoriedad gracias a la firma de acuerdos con partners de la talla de Oracle y Dell.

Aparentemente todo marchaba bien en Red Flag Software hasta que en abril del año pasado comenzaron los problemas ya que la empresa anunció que no podía hacer frente a los sueldos de sus empleados y en diciembre se vio obligadas a abandonar su sede central por impagos del alquiler.

Los empleados han explicado que se les deben 2,46 millones de euros en salarios, y han denunciado que la Academia China de Ciencias (CAS) no pagó los 40 millones de subvenciones que se había comprometido a abonar a la compañía, informan en ZDNet.

Todo apunta a que el auge de rivales como Red Hat Enterprise Linux y SUSE Linux, unida a la pérdida de notoriedad de la marca, precipitaron la caída de Red Flag Software.

En cualquier caso, a pesar del adiós de Red Flag, todavía siguen con vida otras distros de Linux financiadas por el gobierno chino, como es el caso de Ubuntu Kylin y China Operating System, que se estrenó el mes pasado.

Fuente: siliconweek.es