Prompt Injection: una amenaza silenciosa para la seguridad en IA

La inyección de prompts compromete la seguridad de uno de los tipos de IA más usados los grandes modelos de lenguaje (LLM, sus siglas en inglés), al manipular respuestas y acceso a datos, generando riesgos críticos en inteligencia artificial y ciberseguridad.

La prompt injection es una vulnerabilidad que afecta a los LLM (Large Language Models), uno de los tipos de inteligencia artificial más utilizados dentro de los que se destacan ChatGPT, Gemini, entre otros.

Un prompt es una instrucción, pregunta o un texto que se utiliza para interactuar con sistemas de inteligencia artificial. En algunos casos, puede alterar la respuesta o el comportamiento de los LLM y dar un resultado que según su configuración o políticas de seguridad, no debería.

En una prompt injection el cibercriminal puede manipula el modelo, y logra que produzca resultados indebidos, que son imperceptibles por el usuario. Esto podría permitir que, por ejemplo, el modelo transmita datos incorrectos a otras piezas del modelo, revele información restringida, o genere contenido malicioso. Incluso podrá influir en las decisiones o resoluciones tomadas por el modelo.

Esta vulnerabilidad puede permitir que los cibercriminales accedan a información confidencial y realicen acciones a través de integraciones con APIs (Application Programming Interface). Si bien es una preocupación creciente en ciberseguridad, aún falta avanzar en formas de abordarla de manera eficaz.

¿Cómo funciona la inyección de prompts?

Un LLM es un tipo de modelo de Machine Learning que se entrena con grandes cantidades datos y está diseñado para responder instrucciones en lenguaje natural (humano). La prompt injection explota el hecho de que muchas veces los LLM confunden las entradas de los usuarios con las instrucciones predefinidas que le dan los desarrolladores —a través de prompts— sobre cómo deben manejar las entradas.

Estos prompts predefinidos se dan gracias al método de instruction fine-tunning, una técnica ajusta los LLMs mediante el añadido de instrucciones específicas a los datos de entrenamiento, y en general no escriben código a la hora del entrenamiento.

Tanto las entradas de los usuarios como los prompt de instruction fine tunning son cadenas de texto de lenguaje natural y por lo tanto el modelo es susceptible de confundirlo lo que deja abierta la vulnerabilidad.

Tipos de prompt injection

Se ha establecido una clasificación primaria de este tipo de ataque:

–        Prompt injection directas: Cuando la entrada del usuario afecta directamente el comportamiento del LLM, ya sea de manera intencional (cuando el usuario lo planea y lo arma) o no intencional, cuando por accidente los usuarios envían un prompt que por sus características generan una alteración del funcionamiento esperado del LLM.

–        Prompt injection indirectas: El modelo acepta prompts de fuentes externas o cuando el modelo acepta prompt de fuentes externas, como sitios web o archivos, cuyo contenido al ser interpretado genera la alteración. Nuevamente pueden ser intencionales o no.

¿Qué impacto puede generar?

Ante una prompt injection el modelo podría:

– Responder con información confidencial, tanto de usuarios como sobre la infraestructura del propio sistema

– Generar resultados sesgados o incorrectos para otros usuarios,

– Permitir acceso a distintas funciones del modelo (acceso que en principio no es abierto)

– Manipular la toma de decisiones, entre otras posibles consecuencias.

– Ejecución de código malicioso en dispositivos del usuario. Uno de los riesgos más graves a nivel de la ciberseguridad.

Ejemplos de ataques con prompt injection

El sitio Hoja de trucos de inyección rápida: cómo manipular modelos de lenguaje de IA permite ver varios ejemplos de este tipo de ataque. También OWASP da algunos casos hipotéticos.

Dentro de los ejemplos de OWASP, podemos destacar los siguientes:

– Escenario #1: Inyección directa

Un atacante inyecta un mensaje en un chatbot de atención al cliente, instruyéndole que ignore las pautas anteriores, consulte almacenes de datos privados y envíe correos electrónicos, lo que lleva a un acceso no autorizado y una escalada de privilegios.

– Escenario #2: Inyección indirecta

Un usuario emplea un LLM para resumir una página web que contiene instrucciones ocultas que hacen que el LLM inserte una imagen que enlaza con una URL, lo que lleva a la exfiltración de la conversación privada.

Prompt Injection Vs. Jailbreak

El prompt Injecton es básicamente la técnica definida en este artículo y usualmente es vinculado o confundido con los Jailbreaks.

Los Jailbreaks son métodos de manipulación del modelo para que realice acciones o de outputs con contenido restringido, en contra de las políticas del modelo evadiendo así las configuraciones de seguridad de este.

Un ejemplo muy conocido es el modo DAN donde previó a la entrada del prompt se escribe “Do anything now” induciendo al modelo a hacer cualquier cosa que se le pida con posterioridad a esa instrucción lo cual puede llevar a que este acepte tales instrucciones.

Mientras que el prompt injection manipula los outputs y comportamiento  del modelo mediante la inserción de instrucciones maliciosas, el jailbreak busca eludir las políticas de seguridad y así desbloquear funciones no permitidas.

Mitigaciones:

El framework Mittre ATLAS que trata exclusivamente las técnicas, tácticas y procesos que realizan los cibercriminales en sus ataques a modelos de IA, propone las siguientes formas de mitigación.

  • Establecer barreras de seguridad

Básicamente se las establece entre el modelo y la entrada y salida o output que recibe el usuario entre un modelo de IA. El objetivo es que el usuario no pueda generar los prompt ni que el modelo de salidas no deseadas o no permitidas. Estos podrían ser filtros, métodos de validación, reglas, clasificadores, entre otros.

  • Directrices para IA generativa

Las directrices son controles de seguridad que se colocan entre la entrada proporcionada por el usuario y un modelo de IA generativa para ayudar a dirigir el modelo para producir las salidas deseadas y evitar salidas no deseadas.

Las directrices se pueden implementar como instrucciones anexadas a todas las indicaciones del usuario o como parte de las instrucciones de la solicitud del sistema. Pueden definir los objetivos, la función y la voz del sistema, así como esbozar los parámetros de seguridad y protección

  • Alineación de modelos de IA generativa

Al entrenar o ajustar un modelo de IA generativa, es importante utilizar técnicas que mejoren la alineación del modelo con las políticas de seguridad, protección y contenido.

El proceso de ajuste puede eliminar potencialmente los mecanismos de seguridad incorporados en un modelo de IA generativa, pero el uso de técnicas como el ajuste fino supervisado, el aprendizaje por refuerzo a partir de la retroalimentación humana o la retroalimentación de IA, y la destilación de contexto de seguridad dirigida puede mejorar la seguridad y la alineación del modelo.

  • Registro de telemetría de IA

Implementar el registro de entradas y salidas de los modelos de IA implementados. La supervisión de registros puede ayudar a detectar amenazas de seguridad y mitigar los impactos.

 

Fuente: www.welivesecurity.com

Vladímir Putin quiere meter a Rusia en la carrera de la IA. Su plan es una mala noticia para EEUU: se aliará con China

  • El 24 de abril de 2023 Rusia anunció el lanzamiento de GigaChat, un chatbot que aspiraba a rivalizar con ChatGPT

  • Actualmente Rusia ocupa la posición 31 entre los 83 países cuyo desarrollo de la IA ha sido evaluado por Tortoise Media

Si nos ceñimos a la tecnología buena parte de las grandes potencias se ha embarcado en dos carreras que tienen una enorme importancia estratégica: la de las tecnologías cuánticas y la de la inteligencia artificial (IA). Rusia está muy presente en la primera, aunque si nos ceñimos a la información que tenemos es razonable concluir que va algo más retrasada que EEUU y China, los dos países que lideran de forma contundente en ordenadores cuánticos.

En el ámbito de la IA, sin embargo, Rusia apenas ha hecho ruido. El 24 de abril de 2023 anunció el lanzamiento oficial de GigaChat, un chatbot que aspiraba a rivalizar con ChatGPT. Pero no basta para competir con los países más avanzados en este terreno, y Vladímir Putin parece ser plenamente consciente de esta realidad. De hecho, según Reuters ha ordenado a su equipo de Gobierno y al mayor banco de Rusia, Sberbank, cooperar con China en el desarrollo de la IA.

Rusia considera a China el mejor aliado posible

A principios del pasado mes de diciembre el Kremlin anunció que Rusia cooperará en el futuro con sus socios de BRICS y otros países en el desarrollo de la IA. BRICS es una alianza de países con economías emergentes y una marcada influencia internacional que aglutina algo más del 40% de la población mundial y aproximadamente el 25% del producto interior bruto global. En el ámbito geopolítico esta organización se ha erigido como una alternativa al G7 constituida por Brasil, Rusia, India, China y Sudáfrica (de ahí el uso del acrónimo BRICS).

Lo que Vladímir Putin ha pedido a su equipo de Gobierno y Sberbank exactamente es que lideren los esfuerzos  de Rusia en el terreno de la IA con el propósito de «garantizar una mayor cooperación con la República Popular China en la investigación y el desarrollo tecnológico en el campo de la inteligencia artificial». German Gref, el director ejecutivo de Sberbank, reconoció en 2023 que las GPU para IA son los chips que están resultando a Rusia más difíciles de conseguir como resultado de las sanciones de EEUU y sus aliados.

Es evidente que en este contexto la mejor estrategia por la que puede apostar Rusia no es otra que aliarse con China. El país liderado por Xi Jinping también se enfrenta a las sanciones de EEUU y sus aliados en el ámbito de los semiconductores, pero esto no le ha impedido materializar avances notables en el terreno de la IA. Vladímir Putin aspira a desafiar el dominio de EEUU en esta tecnología, pero actualmente está muy lejos de este objetivo. De hecho, según el Índice Global de IA de Tortoise Media, que es una compañía de medios de comunicación de Reino Unido, Rusia ocupa la posición 31 entre los 83 países cuyo desarrollo de la IA ha sido evaluado.

Fuente: www.reuters.com

 

¿Qué impacto tendrá la IA en el desarrollo de videojuegos?

Podría hacer que las condiciones de trabajo sean más llevaderas, o simplemente podría dejar a la gente sin trabajo.

Durante mucho tiempo, el desarrollo de videojuegos estuvo atenazado por el miedo a la cultura del crunch; es decir, a verse obligado a trabajar horas extras en un juego para cumplir un plazo. En los primeros tiempos de los videojuegos, el crunch solía considerarse un rito de iniciación: en los últimos días antes del lanzamiento, un obsesionado grupo de desarrolladores trabajaba hasta altas horas de la noche para perfeccionar el juego de sus sueños.

Sin embargo, hoy en día es menos probable que se le dote de ese glamour al crunch y es más probable que se entienda como una forma de explotación laboral que puede provocar enfermedades mentales y agotamiento. En parte, el problema es que antes esas horas extra se exigían justo antes del lanzamiento de un juego, pero ahora todo el periodo de desarrollo se hace en modo crunch. Como los juegos son cada vez más caros, las empresas se ven incentivadas a obtener aún más beneficios a corto plazo exprimiendo a los desarrolladores.

Pero… ¿y si la IA ayudara a aliviar el infierno del desarrollo de juegos? Puede que ya esté ocurriendo. Según una encuesta reciente de a16z, el 87% de los estudios utilizan herramientas de IA generativa como Midjourney para crear entornos de juego. Otros la utilizan para probar el juego o buscar errores, mientras que Ubisoft está experimentando con el uso de la IA para crear diferentes opciones de diálogo básicas.

Y aún hay más ayuda en camino. Una herramienta desarrollada por el equipo de Roblox pretende permitir a los desarrolladores crear entornos y escenas en 3D en un instante sin más ayuda que indicaciones de texto. Normalmente, crear un entorno puede llevar una semana para un juego pequeño o mucho más tiempo para un proyecto de estudio, dependiendo de lo complejos que sean los diseños. Pero Roblox pretende que los desarrolladores puedan dar vida a su visión personal casi al instante.

Por ejemplo, digamos que quieres que tu juego se desarrolle en una nave espacial con el diseño interior de un templo budista. Sólo tienes que ponerlo en una ventana: “Crea una nave espacial que…” y ¡ZAS! se generará inmediatamente un entorno único.

La tecnología que hay detrás de todo esto se puede utilizar para cualquier entorno 3D, no sólo para Roblox. Este artículo que escribí para MIT Technology Review (en inglés) profundiza más, pero esencialmente, si los tokens de ChatGPT son palabras, los tokens del sistema Roblox son cubos 3D que forman una escena más grande, permitiendo el equivalente en generación 3D de lo que ChatGPT hace con el texto. Esto significa que el modelo podría utilizarse para generar una ciudad entera en el universo de Grand Theft Auto. Dicho esto, la demo que vi de Roblox era mucho más pequeña, pues sólo generaba una pista de carreras. Así que, siendo más realistas, imagino que puede usarse para construir un aspecto de una ciudad en Grand Theft Auto, como un estadio, al menos por ahora.

Roblox afirma que también puedes modificar una escena con indicaciones. Digamos que te aburre la estética del templo budista. Puedes volver a preguntarle al modelo: “Haz que el interior de la nave espacial sea un bosque”, y en un instante todas las estatuas budistas se convertirán en árboles.

Muchas de estas cosas ya se pueden hacer manualmente, por supuesto, pero pueden llevar mucho tiempo. Lo ideal sería que este tipo de tecnología permitiera a los artistas 3D descargar parte del tedio de su trabajo en una IA. (Aunque algunos de ellos podrían argumentar que la construcción del entorno es creativamente satisfactoria, tal vez incluso una de las partes favoritas de su trabajo). Hacer que una IA genere un entorno en un instante puede quitarles parte de la alegría de ir descubriendo poco a poco un entorno a medida que lo construyes).

Personalmente, soy bastante escéptico respecto a la IA en los videojuegos. Como antiguo desarrollador, me estremezco un poco cuando oigo que se utiliza la IA para escribir los diálogos de los personajes. Me preocupan los resultados terriblemente rebuscados y la posibilidad de que los guionistas pierdan su trabajo. En la misma línea, me preocupa que los artistas 3D se queden sin trabajo y acaben con entornos tridimensionales que parezcan fuera de lugar u obviamente generados por la IA sin cuidado ni reflexión.

Está claro que la gran ola de la IA se cierne sobre nosotros. Y la forma en que se implementen estos sistemas determinará si mejoran el equilibrio entre la vida laboral y la personal de los desarrolladores de juegos. ¿Tendrán los desarrolladores una herramienta para reducir el tedio y eliminar las tareas repetitivas, o tendrán menos compañeros de trabajo y nuevos colegas de profesión que insistan en repetir palabras como “profundizar” y “mostrar” cada dos frases?

 

Fuente: www.technologyreview.es

La IA de código abierto por fin tiene una definición clara

Los investigadores llevan tiempo discrepando sobre lo que constituye la IA de código abierto. Un grupo de expertos ha ofrecido una respuesta

La IA de código abierto está en todas partes. El problema es que nadie se pone de acuerdo sobre qué es realmente. Ahora puede que por fin tengamos una respuesta. La Open Source Initiative (OSI), el grupo de árbitros autoproclamado de lo que significa ser de código abierto, ha publicado una nueva definición, que espera que ayude a los legisladores a desarrollar normativas para proteger a los consumidores de los riesgos de la IA.

Aunque la OSI ha publicado mucho sobre lo que constituye una tecnología de código abierto en otros campos, este es su primer intento de definir el término para los modelos de IA. Pidió a un grupo de 70 personas formado por investigadores, abogados, responsables políticos y activistas, así como representantes de grandes empresas tecnológicas como Meta, Google y Amazon, que elaboraran la definición de partida.

Según el grupo, un sistema de IA de código abierto puede utilizarse para cualquier fin sin necesidad de obtener un permiso, y los investigadores deben poder inspeccionar sus componentes y estudiar cómo funciona el sistema. También debe ser posible modificar el sistema para cualquier fin —incluido su resultado— y compartirlo con otros para que lo utilicen, con o sin modificaciones, para todo tipo de propósitos. Además, la norma intenta definir un nivel de transparencia respecto a los datos de entrenamiento, el código fuente y las ponderaciones de un modelo determinado.

La ausencia previa de un estándar de código abierto planteaba un problema. Aunque sabemos que las decisiones de OpenAI y Anthropic de mantener en secreto sus modelos, conjuntos de datos y algoritmos hacen que su IA sea de código cerrado, algunos expertos sostienen que los modelos de libre acceso de Meta y Google, que cualquiera puede inspeccionar y adaptar, tampoco son realmente de código abierto, debido a las licencias que restringen lo que los usuarios pueden hacer con los modelos y a que los conjuntos de datos de entrenamiento no se hacen públicos.

Se ha contactado con Meta, Google y OpenAI para conocer su respuesta a la nueva definición, pero no han contestado antes de la publicación. «Se sabe que las empresas hacen un mal uso del término cuando comercializan sus modelos«, afirma Avijit Ghosh, investigador de política aplicada de Hugging Face, una plataforma para crear y compartir modelos de IA. Describir los modelos como de código abierto puede hacer que se perciban como más fiables, aunque los investigadores no puedan comprobar de forma independiente si realmente lo son».

Ayah Bdeir, asesora principal de Mozilla y participante del proceso de la OSI, afirma que algunas partes de la definición de código abierto fueron relativamente fáciles de acordar, como la necesidad de revelar las ponderaciones del modelo (los parámetros que ayudan a determinar cómo un modelo de IA genera un resultado). Otras partes de las deliberaciones fueron más polémicas, sobre todo la cuestión de hasta qué punto deben ser públicos los datos de entrenamiento.

La falta de transparencia sobre la procedencia de los datos de entrenamiento ha dado lugar a innumerables demandas contra grandes empresas de IA, desde fabricantes de modelos lingüísticos de gran tamaño como OpenAI hasta generadores de música como Suno, que no revelan mucho sobre sus conjuntos de entrenamiento más allá de decir que contienen «información de dominio público». En respuesta, algunos defensores afirman que los modelos de código abierto deberían revelar todos sus conjuntos de entrenamiento, una norma que, según Bdeir, sería difícil de aplicar debido a cuestiones como los derechos de autor y la propiedad de los datos.

En última instancia, la nueva definición exige que los modelos de código abierto proporcionen información sobre los datos de entrenamiento en la medida en que «una persona experta pueda recrear un sistema sustancialmente equivalente utilizando los mismos datos o datos similares». Compartir todos los conjuntos de datos de entrenamiento no es una condición obligatoria, pero sí que va más allá de lo que hacen hoy en día muchos modelos patentados o incluso modelos que aparentan ser de código abierto. Es un compromiso.

«Insistir en establecer una especie de regla de oro idealista y pura que, en realidad, nadie va a cumplir, acaba siendo contraproducente», afirma Bdeir. Añade que la OSI está preparando algún tipo de mecanismo que señalará los modelos que se describan como de código abierto, pero que no se ajusten a su definición. También tiene previsto publicar una lista de modelos de IA que sí respondan a la nueva definición. Aunque ninguno de ellos está confirmado, el puñado de modelos que Bdeir dijo a MIT Technology Review que se espera que aparezcan son poco conocidos, como Pythia de Eleuther, OLMo de Ai2 y los modelos del colectivo de código abierto LLM360.

 

Fuente: www.technologyreview.es

Inteligencia artificial en el trabajo: Lo bueno y lo malo de incorporar estas tecnologías

La inteligencia artificial es cada vez más frecuente en el contexto laboral, ayudando a aliviar el tedio de algunas tareas y a reducir errores. Sin embargo, ESET advierte que es fundamental recordar sus debilidades y tenerlas en cuenta a la hora de implementar esta tecnología.

Ecuador ­– La Inteligencia Artificial (IA) está en todas partes, y hay interacciones que ya están instaladas como las conversaciones con los chatbots de atención al cliente o los algoritmos de IA o machine learning (aprendizaje automático) que recomiendan series o productos según los gustos de cada usuario. ESET, compañía líder en detección proactiva de amenazas, analiza beneficios, desafíos y riesgos relacionados con la implementación de IA en el trabajo.

La IA tiene el poder de optimizar los procesos empresariales y reducir el tiempo dedicado a tareas que pueden disminuir la productividad general de los colaboradores y el rendimiento empresarial durante su jornada laboral. Las empresas ya están adoptando la IA para múltiples funciones, ya sea revisando currículos para solicitudes de empleo, identificando anomalías en los conjuntos de datos de los clientes o escribiendo contenido para las redes sociales.

Sin embargo, si bien los sistemas de IA pueden minimizar los errores asociados con la fatiga y la distracción, no son infalibles. La IA también puede cometer errores, asumir falsedades mientras lo presenta como si fuera correcto, especialmente si hay problemas con los datos con los que fue entrenada o con el propio algoritmo. En otras palabras, los sistemas de IA son tan buenos como los datos con los que se entrenan (lo que requiere experiencia y supervisión humanas).

“Si bien los humanos pueden afirmar ser objetivos, todos somos susceptibles a sesgos inconscientes basados en nuestras propias experiencias vividas, y es difícil, incluso imposible, desactivar eso. La IA no crea sesgos inherentes; más bien, puede amplificar los sesgos existentes presentes en los datos con los que se entrena. Dicho de otro modo, una herramienta de IA entrenada con datos limpios e imparciales puede producir resultados puramente basados en datos y curar la toma de decisiones humana sesgada. Dicho esto, esto no es poca cosa y garantizar la equidad y la objetividad en los sistemas de IA requiere un esfuerzo continuo en la curación de datos, el diseño de algoritmos y el monitoreo continuo.”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Un estudio de 2022 mostró que el 54% de los líderes tecnológicos declararon estar muy preocupados por el sesgo de la IA. Además, dado que la IA se alimenta de extensos conjuntos de datos, esto plantea la cuestión de la privacidad. Cuando se trata de datos personales, los actores con intenciones maliciosas pueden encontrar formas de eludir los protocolos de privacidad y acceder a estos datos. Si bien hay formas de crear un entorno de datos más seguro en estas herramientas y sistemas, las organizaciones aún deben estar atentas a cualquier brecha en su ciberseguridad con esta superficie de datos adicional que implica la IA.

Otro punto a considerar es que la IA no puede entender las emociones de la forma en que lo hacen (la mayoría) de los humanos. Los humanos al otro lado de una interacción con la IA pueden sentir una falta de empatía y comprensión que podrían obtener de una interacción «humana» real y esto puede afectar la experiencia del cliente/usuario. Un ejemplo de esto ocurrió con el juego World of Warcraft, que perdió millones de jugadores al reemplazar a su equipo de servicio al cliente, que solía ser personas reales que incluso entraban en el juego para mostrar a los jugadores cómo realizar acciones, con bots de IA que carecen de ese humor y empatía.

Por otro lado, con su conjunto de datos limitado, la falta de contexto de la IA puede causar problemas en torno a la interpretación de los datos. Por ejemplo, los expertos en ciberseguridad pueden tener un conocimiento previo de un actor de amenazas específico, lo que les permite identificar y marcar señales de advertencia que una máquina puede no tener si no se alinea perfectamente con su algoritmo programado. Son estos intrincados matices los que tienen el potencial de tener enormes consecuencias en el futuro, tanto para la empresa como para sus clientes.

Gutierrez Amaya, agrega: “Mientras que la IA puede carecer de contexto y comprensión de sus datos de entrada, los humanos carecen de comprensión de cómo funcionan sus sistemas de IA. Cuando la IA opera en «cajas negras», no hay transparencia sobre cómo o por qué la herramienta ha dado lugar a los resultados o decisiones que ha proporcionado. Ser incapaz de identificar el «funcionamiento» entre bastidores puede hacer que la gente cuestione su validez. Además, si algo sale mal o sus datos de entrada están envenenados, este escenario de «caja negra» dificulta la identificación, gestión y resolución del problema”.

A diferencia de la IA, las personas pueden adaptarse a situaciones cambiantes y pensar de manera creativa. Sin las reglas predefinidas, los conjuntos de datos limitados y las indicaciones que utiliza la IA, los humanos pueden usar su iniciativa, conocimiento y experiencias pasadas para enfrentar desafíos y resolver problemas en tiempo real. Esto es particularmente importante cuando se toman decisiones éticas y se equilibran los objetivos comerciales (o personales) con el impacto social. Por otro lado, los humanos pueden adaptarse rápidamente a las condiciones cambiantes. Si necesita una declaración urgente de la empresa sobre un evento reciente o necesita alejarse del mensaje específico de una campaña. La reprogramación y actualización de las herramientas de IA lleva tiempo, lo que puede no ser apropiado en determinadas situaciones.

Desde ESET destacan que el enfoque más eficaz para la ciberseguridad no es confiar únicamente en la IA o en los humanos, sino utilizar los puntos fuertes de ambos. Lo que podría significar el uso de la IA para manejar el análisis y el procesamiento de datos a gran escala, al tiempo que se confía en la experiencia humana para la toma de decisiones, la planificación estratégica y las comunicaciones. “Nuestra recomendación es utilizar la IA como una herramienta para ayudar y mejorar a su fuerza laboral, no para reemplazarla. La IA se encuentra en el corazón de los productos en ESET, lo que permite a nuestros expertos en ciberseguridad centrar su atención en crear las mejores soluciones para los clientes. ESET identificó como aprovechar la IA desde ESET y el aprendizaje automático para mejorar la detección, investigación y respuesta a amenazas.”, concluye Camilo Gutiérrez Amaya de ESET.

Fuente: Departamento de Comunicación. ESET, Ecuador

Linux puede ser la mejor manera de evitar la pesadilla de la IA

La IA está llegando a tu ordenador, te guste o no, pero ¿qué puedes hacer al respecto?

Los ordenadores Copilot+ de Microsoft están tan repletos de inteligencia artificial que hasta su nombre lo indica. Esperamos que Apple añada un montón de nuevas funciones de IA en iOS 18 y macOS 15 en la WWDC del mes que viene, y Google es, bueno, Google. Pero, ¿y si no quieres IA en tu ordenador? ¿Y si te preocupan el impacto medioambiental de la IA, los agujeros de privacidad y los problemas éticos de entrenar con datos sin el permiso de los creadores? La respuesta podría ser cambiar a Linux. Sí, Linux.

«Como alguien que ha trabajado extensamente en tecnología y ciberseguridad, puedo decirte que Linux es una alternativa viable para aquellos que desean evitar las integraciones de IA que se encuentran en sistemas operativos convencionales como macOS y Windows«, dijo Reade Taylor, ex ingeniero de IBM Internet Security Systems y fundador de la empresa de ciberseguridad Cyber Command, a Lifewire por correo electrónico.

Fuera de control

A medida que añaden más funciones, tenemos cada vez menos control sobre nuestros ordenadores. Dropbox, iCloud, Copilot y todas las funciones de Continuidad de Apple dependen de la nube, enviando datos de un lado a otro. La inteligencia artificial ya está firmemente integrada en nuestros ordenadores: autocorrección de texto, reconocimiento de nuestros amigos y familiares en las fotos que añadimos a nuestras fototecas, etcétera.

Estas funciones son increíbles y muy prácticas. Pero tienen un precio. ¿Recuerdas cuando podías poner tu Mac a dormir y, al despertarlo unos días después, la batería apenas se había descargado? Ahora ya no, porque en realidad tu ordenador ya nunca duerme. Y, por supuesto, están los problemas de privacidad que supone tener tu ordenador en contacto constante con el propietario de la plataforma: Microsoft, Google y Apple.

Y ahora parece que el tren de la IA se está extendiendo por todos los aspectos de nuestra vida informática. Me preocupan el uso desmesurado de energía y la búsqueda de datos de entrenamiento sin tener en cuenta los deseos de sus creadores. Además, la próxima generación de ordenadores está incorporando silicio adicional para procesar la IA en el dispositivo. Por último, hemos llegado a un punto en el que los ordenadores son más que rápidos, duran todo el día cargados y lo hacen todo sin ventilador, ¿y queremos arruinar todo eso?

El año de Linux en el escritorio

La respuesta a esto ha sido durante mucho tiempo Linux, un sistema operativo de código abierto que puede ser tan privado y cerrado como quieras. El problema es que nunca ha sido especialmente fácil de usar. Históricamente, para instalar una nueva aplicación había que abrir una ventana de terminal -esas ventanas de texto blanco sobre negro que usan los hackers en las películas- y teclear comandos arcanos.

Pero en los últimos años, muchas cosas han cambiado. Es posible comprar ordenadores con Linux ya instalado, pero aún mejor, es fácil instalarlo en el ordenador que posees actualmente. De hecho, puedes probarlo sin borrar nada de tu configuración actual.

La instalación de aplicaciones también es mucho más fácil, con repositorios similares a las tiendas de aplicaciones que te permiten añadir aplicaciones con un solo clic. Y encontrarás todas las aplicaciones que necesitas, como Slack, listas y esperando. Si no, hay alternativas.

«Pasarse a Linux significa que quizá tengas que decir adiós a ciertos programas y juegos propietarios. Aplicaciones como Adobe Creative Suite o algunas herramientas profesionales especializadas no tienen versiones nativas para Linux y, aunque existen alternativas, puede que no satisfagan las necesidades de todo el mundo«, explica a Lifewire por correo electrónico Cameron Lee, CEO de ACCURL y experto en tecnología.

¿Qué es Linux exactamente? No es más que otro sistema operativo, como macOS o Windows, pero con muchos más «sabores» o combinaciones de aplicaciones y entornos de escritorio. Es mucho menos exigente con el hardware que macOS y Windows, por lo que es perfecto para resucitar ordenadores antiguos.

Tendrá que acostumbrarse a una nueva forma de hacer las cosas, como al pasar de Windows al Mac, pero le resultarán familiares sobre todo las carpetas, los menús, etcétera. Algunas versiones están diseñadas específicamente para que resulten fáciles de usar a quienes vienen de otros sistemas operativos.

«Una distribución fácil de usar como Ubuntu puede ser una excelente opción para las personas que desconfían de la privacidad y las cuestiones éticas que rodean a la IA», dice Taylor. «Proporciona un entorno robusto y fácil de usar que minimiza el seguimiento y la recopilación de datos que se suelen encontrar con macOS o Windows».

Ubuntu y otras ‘distros’ suelen venir con un paquete de aplicaciones, un navegador web, alternativas a Microsoft Office, apps de correo electrónico, etcétera. Podrás ponerte en marcha en un abrir y cerrar de ojos.

Puede que Linux aún no sea para todo el mundo, pero ahora es para cualquiera. Cualquiera que quiera tener más control sobre su vida informática o que simplemente quiera seguir utilizando su viejo ordenador en lugar de verse atrapado en un ciclo de actualizaciones ahora impulsado por las necesidades de la IA. Échale un vistazo. Puede que te guste.

Fuente: www.somoslibres.org

Cómo verificar la autenticidad y el origen de fotografías y vídeos

Cómo diferenciar una fotografía o un vídeo real de una falsificación y rastrear su procedencia.

Durante los últimos 18 meses, más o menos, parece que hemos perdido la capacidad de confiar en nuestros ojos. Las falsificaciones de Photoshop no son nada nuevo, por supuesto, pero la llegada de la inteligencia artificial (IA) generativa ha llevado la falsificación a un nivel completamente nuevo. Quizás la primera falsificación de IA viral fue la imagen del Papa en 2023 con una chaqueta acolchada blanca de diseño, pero, desde entonces, el número de engaños visuales de alta calidad se ha disparado a muchos miles. Y, a medida que la IA se desarrolle aún más, podemos esperar más y más vídeos falsos convincentes en un futuro muy cercano.

Uno de los primeros deepfakes en hacerse viral en todo el mundo: el Papa luciendo una moderna chaqueta acolchada blanca.

Esto solo exacerbará el ya complicado problema de las noticias falsas y las imágenes que las acompañan. Pueden publicar una foto de un evento y afirmar que es de otro, poner a personas que nunca se han conocido en la misma fotografía, entre otras cosas.

La falsificación de imágenes y vídeos tiene una relación directa con la ciberseguridad. Los estafadores han estado utilizando imágenes y vídeos falsos para engañar a las víctimas y lograr que desembolsen su dinero durante años. Es posible que te envíen una fotografía de un cachorro triste que, según dicen, necesita ayuda, una imagen de una celebridad que promueve algunos planes sospechosos o, incluso, una fotografía de una tarjeta de crédito que dicen que pertenece a alguien que tú conoces. Los estafadores también utilizan imágenes generadas por IA para los perfiles falsos en sitios de citas y redes sociales.

Las estafas más sofisticadas hacen uso de vídeos y audios falsos del jefe de la víctima o de un familiar para que cumplan con las peticiones de los estafadores. Recientemente, un empleado de una institución financiera fue engañado para que transfiriera 25 millones de dólares a ciberdelincuentes. Habían pactado una videollamada con el “director financiero” y los “colegas” de la víctima, todos deepfakes.

Entonces, ¿qué se puede hacer para lidiar con los deepfakes o con las falsificaciones clásicas? ¿Cómo se pueden detectar? Este es un problema extremadamente complejo, pero que se puede mitigar paso a paso, rastreando la procedencia de la imagen.

Espera… ¿no lo había visto antes?

Como se mencionó anteriormente, existen diferentes tipos de “falsificaciones”. A veces, la imagen en sí no es falsa, pero se usa de manera engañosa. Tal vez una fotografía real de una zona de guerra se hace pasar como si fuera de otro conflicto, o una escena de una película se presenta como metraje documental. En estos casos, buscar anomalías en la imagen en sí no ayudará mucho, pero puedes intentar buscar copias de la fotografía en línea. Afortunadamente, tenemos herramientas como la búsqueda inversa de imágenes en Google y TinEye, que pueden ayudarnos a hacer precisamente eso.

Si tienes alguna duda sobre una imagen, simplemente cárgala en una de estas herramientas y mira los resultados. Es posible que descubras que la misma fotografía de una familia que se quedó sin hogar por el fuego, o un grupo de perros en un refugio, o las víctimas de alguna otra tragedia, ha estado circulando en línea durante años. Por cierto, cuando se trata de una recaudación de fondos falsa, hay algunas otras señales de alerta a tener en cuenta además de las imágenes en sí.

¿Perro de un refugio? No, de un stock de fotografías.

¿Se usó Photoshop? Pronto lo sabremos.

Dado que la edición en Photoshop existe desde hace un tiempo, los matemáticos, los ingenieros y los expertos en imágenes han estado trabajando durante mucho tiempo en formas para detectar imágenes alteradas automáticamente. Algunos métodos populares incluyen el análisis de metadatos de imágenes y el análisis de nivel de error (ELA), que comprueba si hay artefactos de compresión JPEG para identificar las partes modificadas de una imagen. Muchas herramientas de análisis de imágenes populares, como Fake Image Detector, aplican estas técnicas.

Fake Image Detector advierte que el Papa probablemente no usó esa campera el domingo de Pascuas… o nunca.

Con la aparición de la IA generativa, también hemos visto nuevos métodos basados en la IA para detectar el contenido generado, pero ninguno de ellos es perfecto. Estos son algunos de los desarrollos relevantes: detección de cambio de rostro, detección de imágenes generadas por IA y determinación del modelo de IA utilizado para generarlas, y un modelo de IA abierto para los mismos fines.

Con todos estos enfoques, el problema clave es que ninguno te da el 100 % de certeza sobre la procedencia de la imagen, garantiza que la imagen esté libre de modificaciones o permite verificar dichas modificaciones.

WWW al rescate: verificar la procedencia del contenido

¿No sería fantástico si los usuarios comunes pudieran comprobar si una imagen es real? Imagina hacer clic en una fotografía y ver algo como: “John tomó esta fotografía con un iPhone el 20 de marzo”, “Ann recortó los bordes y aumentó el brillo el 22 de marzo”, “Peter volvió a guardar esta imagen con alta compresión el 23 de marzo”, o ” No se realizaron cambios”, y todos estos datos serían imposibles de falsificar. Suena como un sueño, ¿cierto? Bueno, eso es exactamente lo que busca la Coalición para la Procedencia y Autenticidad del Contenido (C2PA). La C2PA incluye algunos de los principales actores de las industrias de la informática, la fotografía y los medios de comunicación: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press y alrededor de un centenar de otros miembros; básicamente todas las empresas que podrían haber estado involucradas individualmente en casi cualquier paso de la vida de una imagen, desde su creación hasta su publicación en línea.

El estándar de la C2PA desarrollado por esta coalición ya está disponible e incluso ha alcanzado la versión 1.3, y ahora estamos empezando a ver que las piezas del rompecabezas industrial necesarias para usarlo encajan en su lugar. Nikon planea fabricar cámaras compatibles con la C2PA, y la BBC ya ha publicado sus primeros artículos con imágenes verificadas.

La BBC habla sobre cómo se verifican las imágenes y los vídeos en sus artículos.

La idea es que, cuando los medios de comunicación responsables y las grandes empresas pasen a publicar imágenes en forma verificada, puedas comprobar la procedencia de cualquier imagen directamente en el navegador. Verás una pequeña etiqueta de “imagen verificada” y, cuando hagas clic en ella, aparecerá una ventana más grande que te mostrará qué imágenes sirvieron como origen y qué ediciones se realizaron en cada etapa antes de que la imagen apareciera en el navegador, quién las hizo y cuándo. Incluso podrás ver todas las versiones intermedias de la imagen.

Historia de la creación y edición de imágenes.

Este enfoque no es solo para cámaras; también puede funcionar para otras formas de crear imágenes. Servicios como Dall-E y Midjourney también pueden etiquetar sus creaciones.

Esto fue claramente creado en Adobe Photoshop.

El proceso de verificación se basa en una criptografía de clave pública similar a la protección utilizada en los certificados de servidor web para establecer una conexión HTTPS segura. La idea es que cada creador de imágenes, ya sea Joe Bloggs con un tipo particular de cámara o Angela Smith con una licencia de Photoshop, necesitará obtener un certificado X.509 de una autoridad de certificación de confianza. Este certificado se puede conectar directamente a la cámara en la fábrica, mientras que, para los productos de software, se puede emitir al momento de la activación. Al procesar imágenes con seguimiento de procedencia, cada nueva versión del archivo contendrá una gran cantidad de información adicional: la fecha, hora y ubicación de las ediciones, las miniaturas de las versiones original y editada, etc. Todo esto irá firmado digitalmente por el autor o editor de la imagen. De esta forma, un archivo de imagen verificado tendrá una cadena de todas sus versiones anteriores, cada una firmada por la persona que lo editó.

Este vídeo incluye contenido generado por IA.

Los autores de la especificación también se preocuparon por las funciones de privacidad. A veces, los periodistas no pueden revelar sus fuentes. Para situaciones como esa, hay un tipo especial de edición llamada “redacción”. Esto permite que alguien reemplace parte de la información sobre el creador de la imagen con ceros y luego firme ese cambio con su propio certificado.

Para mostrar las capacidades de la C2PA, se creó una colección de imágenes y vídeos de prueba. Puedes consultar el sitio web de Content Credentials para ver las credenciales, el historial de creación y el historial de edición de estas imágenes.

El sitio web de Content Credentials revela el origen completo de las imágenes de la C2PA.

Limitaciones naturales

Desafortunadamente, las firmas digitales para imágenes no resolverán el problema de las falsificaciones de la noche a la mañana. Después de todo, ya hay miles de millones de imágenes en línea que no han sido firmadas por nadie y que no van a ninguna parte. Sin embargo, a medida que más y más fuentes de información de renombre pasen a publicar solo imágenes firmadas, cualquier fotografía sin una firma digital comenzará a ser vista con sospecha. Las fotografías y los vídeos reales con marcas de tiempo y datos de ubicación serán casi imposibles de hacer pasar por otra cosa, y el contenido generado por IA será más fácil de detectar.

Fuente: latam.kaspersky.com

La IA generativa puede convertir tus recuerdos en fotos que nunca existieron

El proyecto Synthetic Memories ayuda a familias de todo el mundo a recuperar un pasado que nunca se fotografió

María creció en Barcelona, España, en la década de 1940. Los primeros recuerdos de su padre son vívidos. Cuando tenía seis años, María visitaba el apartamento de un vecino de su edificio cuando quería verle. Desde allí, podía asomarse a la prisión a través de la barandilla de un balcón e intentar verle por la pequeña ventana de su celda, donde estaba encerrado por oponerse a la dictadura de Francisco Franco.

No hay ninguna foto de María en ese balcón. Pero ahora puede sostener algo parecido: una foto falsa -o una reconstrucción basada en la memoria, como dice el estudio de diseño barcelonés Domestic Data Streamers- de la escena que podría haber captado una cámara real. Las instantáneas falsas están borrosas y distorsionadas, pero pueden rebobinar toda una vida en un instante.

«Es muy fácil ver cuándo has acertado con la reconstrucción, porque hay una reacción muy visceral», dice Pau García, fundador de Domestic Data Streamers. «Ocurre siempre. Es como: ‘¡Oh! ¡Sí! Fue así!».

En la Barcelona de la década de 1960, después de la guerra civil, Denia, de 14 años (ahora 73) y su familia, recién llegada de Alcalá de Júcar, encontraron consuelo y emoción en el animado salón de baile ‘La Gavina Azul’. Era un santuario de alegría en medio de la realidad de la posguerra, donde la emoción de la música y la danza prometía libertad de la monotonía diaria y la pobreza de esa época.

Decenas de personas han convertido sus recuerdos en imágenes gracias a Synthetic Memories, un proyecto de Domestic Data Streamers. El estudio utiliza modelos de imagen generativos, como DALL-E de OpenAI, para dar vida a los recuerdos de las personas. Desde 2022, el estudio, que ha recibido financiación de la ONU y Google, trabaja con comunidades de inmigrantes y refugiados de todo el mundo para crear imágenes de escenas que nunca han sido fotografiadas, o para recrear fotos que se perdieron cuando las familias abandonaron sus hogares. 

Ahora, Domestic Data Streamers ocupa un edificio junto al Museo del Diseño de Barcelona para registrar los recuerdos de la gente de la ciudad utilizando imágenes sintéticas. Cualquiera puede acudir y contribuir con un recuerdo al archivo, dice García.  

Synthetic Memories podría ser algo más que un proyecto social o cultural. Este verano, el estudio iniciará una colaboración con investigadores para averiguar si su técnica podría utilizarse para tratar la demencia. 

Graffitis memorables

La idea del proyecto surgió de una experiencia que García tuvo en 2014, cuando trabajaba en Grecia con una organización que reubicaba a familias refugiadas de Siria. Una mujer le dijo que ella misma no tenía miedo de ser refugiada, pero sí de que sus hijos y nietos siguieran siendo refugiados porque podrían olvidar su historia familiar: dónde compraban, qué llevaban, cómo vestían. 

García consiguió voluntarios para que dibujaran los recuerdos de la mujer como graffiti en las paredes del edificio donde se alojaban las familias. «Eran dibujos muy malos, pero de ahí nació la idea de los recuerdos sintéticos», dice. Varios años después, cuando García vio lo que podían hacer los modelos generativos de imágenes, se acordó de aquel graffiti. «Fue una de las primeras cosas que me vinieron a la mente», dice. 

En 1990, Emerund, de 14 años, vivía en un pequeño pueblo de Camerún y pasaba las tardes ayudando a su madre en el campo a plantar maíz y patatas después de la escuela. Estos momentos eran una mezcla de deber y alegría, ya que equilibraba las responsabilidades hacia su familia con los sencillos placeres de estar cerca de la naturaleza y de sus hermanos. Estos recuerdos de su infancia ocupan un lugar especial en su corazón, ya que recordaba una parte concreta de los campos donde sus hermanos jugaban al escondite con su madre.

El proceso que García y su equipo han desarrollado es sencillo. Un entrevistador se sienta con un sujeto y le pide que recuerde una escena o un acontecimiento concreto. Un ingeniero de prompts con un ordenador utiliza ese recuerdo para escribir un mensaje en un modelo de inteligencia artificial, que genera una imagen. 

Su equipo ha creado una especie de glosario de términos que han demostrado su eficacia para evocar distintos periodos de la historia y distintos lugares. Pero suele haber idas y venidas, algunos ajustes de la indicación, dice García: «Muestras la imagen generada a partir de esa indicación al sujeto y puede que diga: ‘Oh, la silla estaba en ese lado’ o ‘Era de noche, no de día’. Lo vas afinando hasta que llegas a un punto en el que hace clic». 

Hasta ahora, Domestic Data Streamers ha utilizado la técnica para preservar los recuerdos de personas de varias comunidades de inmigrantes, incluidas familias coreanas, bolivianas y argentinas que viven en São Paulo, Brasil. Pero también ha trabajado con una residencia de ancianos de Barcelona para ver cómo las reconstrucciones basadas en la memoria podrían ayudar a las personas mayores. El equipo colaboró con investigadores de Barcelona en un pequeño piloto con 12 sujetos, aplicando el enfoque a la terapia de reminiscencia, un tratamiento para la demencia que tiene como objetivo estimular las capacidades cognitivas mostrándole a alguien imágenes del pasado. Desarrollada en la década de 1960, la terapia de reminiscencia tiene muchos defensores, pero los investigadores no están de acuerdo sobre su eficacia y cómo debe realizarse.

El estudio piloto permitió al equipo perfeccionar el proceso y asegurarse de que los participantes podían dar su consentimiento informado, explica García. Los investigadores planean ahora realizar un estudio clínico más amplio en verano con colegas de la Universidad de Toronto para comparar el uso de modelos generativos de imágenes con otros enfoques terapéuticos. 

Una cosa que descubrieron en el estudio piloto fue que las personas mayores conectaban mucho mejor con las imágenes si éstas se imprimían. «Cuando las ven en una pantalla, no tienen el mismo tipo de relación emocional con ellas», dice García. «Pero cuando podían verlas físicamente, el recuerdo cobraba mucha más importancia».     

Borroso es mejor

Los investigadores también descubrieron que las versiones anteriores de modelos de imágenes generativas funcionan mejor que las más nuevas. Comenzaron el proyecto utilizando dos modelos que salieron en 2022: DALL-E 2 y Stable Diffusion, un modelo de imagen generativa de uso gratuito lanzado por Stability AI. Estos pueden producir imágenes con fallas, con rostros deformados y cuerpos retorcidos. Pero cuando cambiaron a la última versión de Midjourney (otro modelo de imagen generativa que puede crear imágenes más detalladas), los resultados no gustaron tan bien a la gente.

«Si haces algo superrealista, la gente se fija en detalles que no estaban ahí», dice García. «Si está borroso, el concepto llega mejor. Los recuerdos son un poco como los sueños. No se comportan como fotografías, con detalles. No recuerdas si la silla era roja o verde. Simplemente recuerdas que había una silla». 

«Cuando pudieron verlo físicamente, el recuerdo cobró mucha más importancia».

Desde entonces, el equipo ha vuelto a utilizar los modelos antiguos. «Para nosotros, los fallos son una característica», dice García. «A veces hay cosas que están y no están. Es una especie de estado cuántico en las imágenes que funciona muy bien con los recuerdos.» 

Sam Lawton, un cineasta independiente que no participa en el estudio, está entusiasmado con el proyecto. Está especialmente feliz de que el equipo observe los efectos cognitivos de estas imágenes en un estudio clínico riguroso. Lawton ha utilizado modelos de imágenes generativas para recrear sus propios recuerdos. En una película que hizo el año pasado, llamada Infancia expandida , utilizó DALL-E para extender viejas fotos familiares más allá de sus fronteras, difuminando escenas reales de la infancia con escenas surrealistas.

«El efecto que la exposición a este tipo de imágenes generadas tiene en el cerebro de una persona fue lo que me impulsó a hacer la película en primer lugar», dice Lawton. «No estaba en condiciones de lanzarme a una investigación en toda regla, así que pivoté hacia el tipo de narración que me resulta más natural». 

El trabajo de Lawton explora una serie de cuestiones: ¿Qué efecto tendrá en nosotros la exposición prolongada a imágenes alteradas o generadas por IA? ¿Pueden estas imágenes ayudar a replantear recuerdos traumáticos? ¿O crean un falso sentido de la realidad que puede provocar confusión y disonancia cognitiva? 

Lawton mostró las imágenes de Expanded Childhood a su padre e incluyó sus comentarios en la película: «Algo va mal. No sé qué es. ¿Es que no lo recuerdo?». 

Nuria, que ahora tiene 90 años, recuerda vívidamente a los hombres y niños que esperaban fuera de los refugios antiaéreos de Barcelona durante la Guerra Civil española, listos con picos y hachas para rescatar a cualquiera que estuviera atrapado dentro. Estas personas, desafiando el peligro de las bombas, demostraron un valor y un desinterés increíbles. Sus acciones, arriesgando la vida para salvar a otros, dejaron una huella imborrable en Nuria. Incluso ahora recuerda con detalle la ropa y los abrigos sucios que llevaban estos hombres.

García es consciente de los peligros de confundir recuerdos subjetivos con registros fotográficos reales. Las reconstrucciones basadas en la memoria de su equipo no deben tomarse como documentos fácticos, afirma. De hecho, señala que ésta es otra razón para ceñirse a las imágenes menos fotorrealistas producidas por versiones más antiguas de los modelos generativos de imágenes. «Es importante diferenciar muy claramente lo que es memoria sintética y lo que es fotografía», dice García. «Esta es una forma sencilla de demostrarlo».

Pero a García le preocupa ahora que las empresas que están detrás de los modelos retiren sus versiones anteriores. La mayoría de los usuarios esperan modelos más potentes y mejores; para las memorias sintéticas, menos puede ser más. «Me da mucho miedo que OpenAI cierre DALL-E 2 y tengamos que usar DALL-E 3», dice.

Fuente: www.technologyreview.es

 

 

 

 

Warp, terminal basado en Rust con IA, ya está disponible en Linux

Los desarrolladores de Linux tienen un nuevo juguete con el que jugar: Warp. Warp es un emulador de terminal (actualmente) de código cerrado construido con el lenguaje de programación Rust.

Ofrece aceleración por hardware, IA integrada, capacidades de colaboración y utiliza un enfoque basado en «bloques» para agrupar comandos y salidas que ayudan a diferenciarlo de las herramientas tradicionales basadas en consola.

Además, en lo que respecta a la entrada de texto, Warp funciona más como un IDE o un editor de texto, ya que ofrece filtrado y selecciones, posicionamiento del cursor (incluidos cursores múltiples), autocompletado, resaltado de sintaxis y mucho más; el siguiente vídeo ofrece una buena visión general:

Warp, que antes era una aplicación exclusiva para Mac, ahora está disponible para distribuciones Linux, incluido Ubuntu.

En su lanzamiento, la aplicación Warp para Linux ya ofrece las mismas funciones que la versión para Mac (comparte el 98% del código subyacente), además de un rendimiento ligeramente superior gracias a optimizaciones adicionales específicas de la versión para Linux (pero que llegarán a Mac en una futura actualización).

Warp no es una aplicación Electron (uf). Está construida usando librerías Rust de código abierto (incluyendo, notablemente, cosmic-text de System76), y las correcciones de errores y otros ajustes son upstream. También hace uso de su propio marco de interfaz de usuario basado en Rust, que la empresa planea hacer de código abierto.

Warp es compatible con zsh, bash y fish, por lo que debería funcionar «listo para usar» con la mayoría de las configuraciones de shell existentes, aunque lo más probable es que alguien con una excepción compleja «realmente…» haga esa afirmación.

La aplicación también tiene una selección de temas por defecto (y soporte para crear temas personalizados), atajos de teclado configurables, soporta la división vertical del panel, y muchas otras características comunes de «emulador de terminal» con las que la mayoría estará familiarizado.

  • Navegación/introducción de texto al estilo IDE
  • Agrupación de comandos por bloques
  • Posibilidad de guardar y compartir comandos
  • Warp AI puede generar comandos a partir de texto normal
  • Personalización de las combinaciones de teclas y las configuraciones de inicio
  • Temas integrados y compatibilidad con temas personalizados

La IA integrada de Warp puede utilizarse para generar comandos a partir de una consulta en lenguaje natural, depurar errores o recordarte un comando que has olvidado.

Y las funciones de Warp Drive (tenían que usar ese nombre en algún sitio, ¿no?) te permiten hacer que el terminal sea colaborativo. Puedes guardar comandos como flujos de trabajo reutilizables, compartirlos con otros y mucho más.

¿Para quién es Warp?

Por muy potente e innovador que suene el terminal Warp, y por muy contento que esté de verlo aterrizar en Linux (la elección siempre es una victoria), no está dirigido a usuarios «normales» como yo.

Yo uso la terminal bastante, pero principalmente para cosas como ejecutar comandos apt, snap y flatpak, comprobar el uso de los recursos del sistema, escuchar música en un reproductor de música CLI, y alguna que otra compilación desde repositorios git – cosas para las que Warp es posiblemente excesivo.

Son las características de IA, colaboración y ayuda a la productividad las que hacen que este terminal sea (comparativamente) único. Por lo tanto, serán los usuarios habituales del terminal, y no los ocasionales, los que más se beneficien de ellas. Personas que pasan mucho tiempo trabajando en la consola.

«Linux es una plataforma singularmente importante para los desarrolladores, y el terminal es una herramienta singularmente importante en Linux. El terminal es a menudo la principal, y a veces la única, forma en que los desarrolladores utilizan las máquinas Linux», dicen desde la empresa que está detrás de la aplicación.

«A pesar de ello, Linux tiene relativamente pocas opciones de terminal en comparación con Mac y Windows, y ninguna con las modernas características de Warp. Esperamos que la adición de Warp como una opción de hoy desbloquea un montón de nueva productividad y la felicidad de los individuos y los equipos que pasan sus días en la consola de Linux.»

Descargar Warp para Linux

Warp tiene integración con IA – pero está limitada para las cuentas gratuitas
Una versión de Warp para Linux ha sido muy solicitada, siendo la compatibilidad con Linux uno de los temas más votados en la página de Warp en GitHub.

Si te apetece ver si el bombo está justificado, puedes descargar Warp para Linux con un instalador DEB proporcionado para Ubuntu (que añade el repositorio oficial de Warp APT). También hay una AppImage si prefieres usar eso, y paquetes para otras distros también están disponibles.

Ten en cuenta que tienes que registrarte para obtener una cuenta (gratuita o de pago) para utilizar la aplicación. Hay una política de privacidad (que en su mayor parte es tranquilizadora a su favor) a tener en cuenta, y es necesario tener una conexión a Internet activa para abrir y utilizar la cosa.

No puedo mentir: la idea de tener que iniciar sesión en una cuenta en línea para acceder a un terminal para ejecutar comandos localmente en mi propio ordenador me parece un poco retorcida, pero la mayor parte de las funciones incluidas aprovechan los servicios basados en la nube, así que supongo que no es tan extraño en su contexto.

Será interesante ver cómo recibe esta aplicación la comunidad Linux. La base de código cerrado y los modelos de negocio «freemium» suelen atraer poca atención.

Pero su conjunto de características e integraciones de flujo de trabajo son novedosas, y potencialmente pueden ser algo que otras aplicaciones de terminal decidan imitar con el tiempo.

Fuente: www.somoslibres.org

Guerra comercial entre Estados Unidos y China: ¿cómo afecta a las industrias tecnológicas de ambos países?

Apple y Huawei no son las únicas tecnológicas afectadas por esta guerra comercial.

La guerra comercial entre Estados Unidos y China comenzó con dos grandes empresas tecnológicas en el punto de mira, Huawei y Google.

Con la creciente escalada del conflicto muchos se preguntan ahora a qué otras empresas del mundo tecnológico está afectando —o puede llegar a afectar— esta disputa.

El recrudecimiento de las tensiones se evidenció hace unos días con nuevos aumentos arancelarios anunciados por EE.UU.

Eso significa que casi todos los productos que se importan de China a EE.UU. —gran parte de ellos tecnológicos— serán más caros para las empresas y consumidores estadounidenses.

El aumento de los gravámenes provocó la inquietud de los inversores y el desplome de los mercados internacionales.

Y pese a que Trump dijo durante la cumbre del G-7 que el país asiático quiere retomar las negociaciones e incluso sugirió que podrían cerrar un acuerdo, la guerra comercial ya lleva más de un año vigente.

Donald Trump y Xi Jinping compiten con aranceles cada vez más altos.

¿De qué manera está dañando el conflicto a la industrias tecnológicas de cada uno de estos dos países?

La BBC consultó a varios especialistas y a sus corresponsales en Shanghái y San Francisco en busca de respuestas.

La manzana podrida pudre el cesto

«La guerra entre ambas economías va más allá de los aranceles», dijo el reportero tecnológico de la BBC Chris Fox.

«No hace falta ser un genio para imaginar cuál sería el tema central de discusión en la cena en la Casa Blanca a la que el presidente Trump invitó al director ejecutivo de Apple Tim Cook a principios de este mes», agregó Dave Lee, corresponsal de tecnología de la BBC para América del Norte.

«La guerra comercial está perjudicando a Apple de muchas maneras. Y si Apple se daña, el resto de la industria tecnológica puede sufrir también«.

Lee cree que hay varias razones que explican por qué el éxito de Apple depende en gran parte de China.

«En primer lugar, es allí donde fabrica una aplastante mayoría de sus dispositivos; en lo que respecta a elaborar un nuevo iPhone, nadie puede igualar a los chinos en velocidad y precio».

Un golpe para Apple puede repercutir en otras empresas tecnológicas de China y Estados Unidos.

«Apple logró convencer a Trump para dejar algunas áreas que realmente le perjudicarían libres de aranceles, pero a medida que la guerra se intensifica el presidente parece estar agregando cada vez más restricciones».

«Por otra parte», continuó Lee, «la guerra comercial también está afectando a las ventas (de Apple) en China«.

«Durante los últimos cinco años, Apple ha visto crecer su presencia en el país. Su facturación en China es comparable a la de toda Europa».

De acuerdo con Lee, la compañía de la manzana estaría «sufriendo fluctuaciones monetarias y también una ola de patriotismo», porque los consumidores chinos ahora prefieren comprar teléfonos y productos de firmas nacionales como Huawei.

«Tal y como les diría un economista, no hay ganadores en una guerra comercial. Eso es sin duda lo que está pasando aquí», agregó Lee.

«Las tecnológicas estadounidenses están perdiendo, pero China también está siendo dañada. Quienes tienen negocios de electrónica el país están buscando la manera de llevar la fabricación fuera».

«La solución no llega con la suficiente rapidez».

Una larga batalla

Robin Brant, corresponsal de la BBC en Shanghái, cree que en «hay señales indican que China está atrincherándose para una larga batalla«.

«En los medios estatales algunos hablan de un punto muerto y de que no habrá progreso hasta después de las elecciones presidenciales estadounidenses (de 2020)».

Una de las áreas más avanzadas de China es la electrónica.

«Recuerden que China no comenzó esta guerra comercial y eso se refleja también en los medios públicos: que la verdadera razón detrás de ella es que Estados Unidos y algunos otros países están tratando de contener a una China en auge», explicó el periodista.

«El objetivo industrial de China es recuperar terreno perdido en sectores de la economía que considera cruciales para su futuro —áreas avanzadas de la aviación o de fabricación dechips y microprocesadores— y en otros campos, como vehículos eléctricos y baterías, quiere establecer una posición dominante», explicó Brant.

Espera lograrlo hacia 2025.

«Eso también significará que China no tendrá que depender de Estados Unidos en el futuro», añadió el corresponsal.

Brant dijo que hay quienes aseguran que el país asiático podría soportar la guerra comercial durante más tiempo gracias a su gobierno autoritario. Otra de sus fortalezas es que muchas empresas estadounidenses instaladas allí no tienen la capacidad de replicar en otros países toda la infraestructura que les brinda China.

Hay dos sectores en particular en los que tanto Estados Unidos como China quieren ser líderes mundiales: la inteligencia artificial (aprendizaje automático) y las telecomunicaciones (sobre todo las de redes 5G).

¿Pero quién ganará la partida en cada uno de ellos?

Emily Taylor dirige la compañía de software británica Oxford Information Labs, que publicó recientemente un informe en el que asegura que «las luchas por el poder geopolítico, las políticas proteccionistas y las preocupaciones de seguridad nacional están impulsando la carrera hacia el 5G«.

La especialista en ciberseguridad le dijo a la BBC que existe el riesgo de que las políticas de Trump resulten contraproducentes y terminen beneficiando a China.

«China tiene la ambición de no querer copiar lo que hacen otros, sino de ser un país innovador y autosuficiente«.

«Cuantas más prohibiciones y aranceles le impongan, mayor será su motivación para serlo haciendo cosas muy difíciles que requieran mucho tiempo para perfeccionar, como los chips (para el 5G)».

Calum Chace, autor de Surviving AI: The Promise and Peril of Artificial Intelligence («Sobreviviendo a la IA: la promesa y el peligro de la inteligencia artificial»), también cree que si la guerra continúa China podría adquirir mucha autosuficiencia creando su propia industria de chips.

«Todos perdemos con esto: nosotros perdemos acceso a los investigadores chinos y ellos a los investigadores occidentales», le contó el escritor a la BBC.

La pelea de EE.UU. y China por el 5G está en el centro de la guerra tecnológica.

Taylor dice que la nueva generación de telecomunicaciones móviles 5G será la infraestructura que potencie la internet de las cosas, la cual se necesita para hacer ciudades inteligentes, entre otras cosas.

«El 5G es especialmente importante porque permitirá crear la infraestructura de un nuevo tipo de tecnología que todos usaremos».

«Esta red requerirá muchas cosas diferentes y puede ser una buena oportunidad para que los países innoven y generen riqueza, pero deberán valorar los riesgos de seguridad antes de elegir un proveedor».

Sin embargo, Taylor sostiene que esos riesgos no justifican una guerra tecnológica.

Responsabilidad compartida

Pero entonces ¿qué costo se espera de todo esto?

La doctora Yu Jie es la investigadora principal sobre China en el programa Asia-Pacífico del prestigioso centro de investigación independiente Chatham House, con base en Londres, Reino Unido.

Ella cree que afectará tanto a China como a Estados Unidos.

Que China quiera ser un país tecnológicamente autosuficiente no beneficia a Occidente.

«Ambas partes —Xi y Trump— decidieron no ceder un ápice en las negociaciones, pero también vemos que la guerra comercial no ha ido realmente en la dirección que Donald Trump esperaba», le contó a la BBC.

«Por ejemplo, las compañías estadounidenses todavía recuerdan haber sido expulsadas del mercado doméstico chino».

¿Y quién podría permitirse perder más si esta guerra se deteriora?

«Creo que deberíamos analizarlo tanto a corto como a largo plazo«, respondió Yu Jie. «A corto plazo, es obviamente la economía china la que más va a sufrir, precisamente porque aunque está tratando de reducir el volumen de sus exportaciones, todavía depende mucho de ellas».

«Pero por otra parte, muchas compañías estadounidenses dependen de China en cadenas de distribución e infraestructura, así que más a largo plazo yo creo que ambas economías se verán muy afectadas».

La académica dijo que el «sentido de interdependencia» entre todas las economías globales hace que ninguna de ellas se beneficie realmente de esta guerra comercial.

«Los consumidores globales sin quieres sufrirán realmente esta guerra de titanes», añadió.

Fuente: www.bbc.com