Estas son las carreras profesionales que NO podrá sustituir la Inteligencia Artificial

La irrupción de la inteligencia artificial (IA) ha transformado numerosos sectores, automatizando tareas, optimizando procesos y, en algunos casos, desplazando ciertos perfiles laborales.

Sin embargo, a pesar de los avances, la IA sigue teniendo límites, especialmente en áreas donde se requieren habilidades humanas profundas como la empatía, el juicio moral o la creatividad genuina.

Aunque muchos temen que la IA reemplazará masivamente el empleo humano, lo cierto es que algunas carreras seguirán siendo insustituibles, al menos en el mediano y largo plazo.

🧠 1. Psicología y salud mental

La IA puede simular conversaciones e incluso brindar orientación básica, pero la conexión emocional, la empatía y la interpretación del lenguaje no verbal siguen siendo exclusivas del ser humano. Profesionales como psicólogos, psiquiatras y terapeutas trabajan con matices personales que ningún algoritmo puede replicar con precisión.

Por qué no puede ser reemplazada:

  • La confianza entre paciente y terapeuta.
  • La interpretación emocional compleja.
  • La ética y el juicio en contextos delicados.

🧑‍🏫 2. Docencia y pedagogía personalizada

Aunque existen plataformas educativas con IA, el papel del docente va más allá de impartir contenido. Implica motivar, adaptar el aprendizaje al contexto emocional, social y cultural de los estudiantes y ofrecer apoyo integral en su desarrollo.

Por qué no puede ser reemplazada:

  • La atención a la diversidad en el aula.
  • La formación en valores y habilidades blandas.
  • La relación pedagógica basada en la confianza.

🎨 3. Artes creativas: escritores, pintores y músicos

La IA puede generar música o escribir textos, pero lo hace a partir de patrones existentes. La creatividad humana, con su capacidad de romper esquemas, provocar emociones profundas y explorar lo desconocido, es aún incomparable.

Por qué no puede ser reemplazada:

  • La inspiración subjetiva.
  • La conexión cultural y emocional.
  • La innovación disruptiva no basada en datos previos.

👨‍⚖️ 4. Derecho: jueces, abogados y mediadores

La IA puede procesar leyes y documentos, pero no puede comprender el trasfondo ético, humano y social de muchos conflictos. Las decisiones jurídicas requieren interpretación, experiencia, sensibilidad y criterio, aspectos netamente humanos.

Por qué no puede ser reemplazada:

  • La evaluación contextual de cada caso.
  • La capacidad de mediación humana.
  • La ética legal y los valores de justicia.

🧑‍⚕️ 5. Medicina clínica y atención personalizada

La IA puede ayudar en diagnósticos o análisis de imágenes médicas, pero el trato con el paciente, el seguimiento de tratamientos y la toma de decisiones éticas siguen dependiendo del juicio médico humano.

Por qué no puede ser reemplazada:

  • La relación médico-paciente.
  • La toma de decisiones en situaciones críticas.
  • El acompañamiento humano en procesos de salud complejos.

🧰 6. Trabajos manuales altamente contextuales

Carpinteros, fontaneros, técnicos en mantenimiento y otros oficios similares enfrentan situaciones variables y no estructuradas que la IA y la robótica aún no pueden abordar con eficacia. La improvisación, el conocimiento práctico y la experiencia directa siguen siendo clave.

Por qué no puede ser reemplazada:

  • La adaptabilidad ante entornos físicos impredecibles.
  • La necesidad de juicio instantáneo en campo.
  • La interacción con materiales y herramientas diversas.

🫱 El valor humano sigue siendo insustituible

Aunque la inteligencia artificial está revolucionando el mundo laboral, hay esferas donde la humanidad, la sensibilidad, el juicio y la creatividad no pueden ser replicadas por máquinas. Lejos de temer la IA, debemos verla como una herramienta complementaria y no como una amenaza directa en estas áreas.

El futuro del trabajo será híbrido: las máquinas harán lo que mejor hacen —procesar datos, automatizar tareas— y los humanos aportarán lo que ninguna IA puede simular del todo: el alma.

 

Fuente: www.somoslibres.org

Guía de buenos hábitos de seguridad y privacidad al usar IA en el trabajo

Te presentamos en formato infográfico una pequeña guía sobre qué buenos hábitos son necesarios incorporar en el uso de la IA para mitigar riesgos de seguridad y privacidad.

La inteligencia artificial está cada vez más presente en el día a día, pero junto a los beneficios de su uso vienen algunos riesgos a los que hay que prestar especial atención.

Muchas organizaciones implementan modelos de inteligencia artificial para optimizar procesos, mejorar la experiencia de los clientes, analizar datos y obtener ventajas competitivas. Sin embargo, la digitalización masiva de la información y la adopción de estas tecnologías conllevan ciertos riesgos en términos de seguridad y privacidad de la información.

A continuación, te presentamos una infografía que servirá como guía para hacer un uso responsable de las tecnologías de inteligencia artificial y minimizar los riesgos a los que pueden exponernos:

Infografía | Guía de buenos hábitos de seguridad y privacidad al usar IA en el trabajo | ESET Latinoamérica

 

Fuente: www.welivesecurity.com

 

“Hola mamá”: La nueva estafa de WhatsApp que utiliza la suplantación de voz con inteligencia artificial

¿Cómo hacer para no caer en esta genialidad de los ciberdelincuentes?

Estafas por WhatsApp (Paola Hernández)

Los ciberdelincuentes mejoran sus tácticas para estafar a los usuarios de WhatsApp o cualquier servicio de mensajería, o plataforma de redes sociales. Recientes investigaciones de firmas internacionales encontraron un método de fraude bancario al que llamaron “Hola mamá”.

Los ciberatacantes, a través de la vieja táctica del phishing, utilizan la suplantación de voz de la inteligencia artificial, y estafan a madres adultas contemporáneas o de la tercera edad, haciéndose pasar por sus hijos.

El método llamado “Hola mamá” no sólo ataca a las madres. También a padres, tíos, otros familiares, amigos y conocidos. Los ciberdelincuentes estudian bien a sus víctimas y encuentran las personas con las que tengan algún tipo de vínculos para iniciar el contacto.

Después de encontrar la manera de suplantar la voz, lo que viene es mucho más conocido. Ejecutan el guion de “Tengo una emergencia, se me bloqueó el celular y las cuentas bancarias y necesito que me transfieras dinero a esta cuenta”.

A donde piden la transferencia es una cuenta totalmente desconocida, pero quien te está hablando es una persona familiar.

«Con este tipo de software, los estafadores pueden copiar cualquier voz que encuentren en línea y luego dirigirse a sus familiares con notas de voz que sean lo suficientemente convincentes como para hacerlos caer en la estafa», dijo Jake Moore, asesor global de ciberseguridad de ESET en una entrevista con Daily Mail.

Estafa en WhatsApp – Getty Estafa en WhatsApp – Getty (SOPA Images/LightRocket via Getty Images)

¿Cómo hacer para no caer?

Una investigación de un reconocido grupo bancario a nivel mundial revela que, sólo en abril del 2025 se registraron estafas que ascienden a los 170 mil dólares por medio de este método.

La manera de evitarlo, por ahora, es intentar contactar a la persona por la que se están haciendo pasar, a su número original que seguro tienes entre tus contactos.

 

Fuente: www.fayerwayer.com

 

 

Deepfakes en TikTok: difunden desinformación médica con avatares creados con IA

Videos falsos creados con IA simulan profesionales de salud, difundiendo información dudosa para promocionar productos y engañar a los usuarios.

Desde que los algoritmos de inteligencia artificial generativa dejaron los laboratorios de universidades y se convirtieron en una herramienta al alcance de cualquier usuario, múltiples beneficios han surgido. Sin embargo, los ciberatacantes también lograron sacarles rédito, y las deepfakes se convirtieron en uno de los grandes dolores de cabeza en el mundo de la ciberseguridad.

La generación de imágenes, video o audio falsificado para cometer estafas, robar información o desestabilización de la opinión pública, son moneda corriente en el mundo del cibercrimen.

Desde los laboratorios de ESET Latinoamérica hemos descubierto una campaña en redes sociales que utiliza avatares creados con IA para imitar a profesionales de salud con el fin de promover la compra de suplementos y otros productos, haciendo que parezcan recomendaciones médicas verdaderas.

Así funciona el engaño

Estos videos analizados siguen una estructura muy delimitada: en un formato de “avatar” en una esquina de la pantalla, una persona que alega ser especialista con más de una década de experiencia da una serie de recomendaciones de estética y salud. Los consejos, que suelen ser más cercanos a tips de alimentación natural, inducen a la compra de productos que venden.

Se valen de una estrategia de marketing desleal en la que intentan generar una validación falsa de supuestos especialistas para hacer creer que el mensaje está dado por una persona con conocimientos del tema.

Ejemplo de un video de TikTok engañoso. Fuente

También se observaron casos en los que se promocionan medicamentos sin aprobación y se dan consejos falsos para problemas de salud graves, utilizando deepfakes con la imagen de profesionales bien reconocidos.

Desinformación y engaño

Como ejemplo de los videos hallados, una de estas cuentas promueve un extracto natural que afirma ser más efectivo que el medicamento Ozempic, el cual se ha vuelto popular recientemente por su efecto secundario de pérdida de peso.

El engaño radica en que el enlace proporcionado en el usuario de tiktok lleva a la plataforma Amazon para comprar el supuesto producto para bajar de peso, pero en realidad el producto final se describe como “gotas de relax” y “anti-hinchazón”, sin mencionar los supuestos grandes beneficios mencionados en el video.

Imagen: Algunos de los videos engañosos en la plataforma TikTok

Una aplicación que facilita la creación de identidades falsas

En este relevamiento, hemos identificado más de 20 cuentas con este contenido, repartidas en las plataformas de preferencia en cuanto a videos cortos, Instagram y Tiktok. Los avatares están creados usando la aplicación Captions, una plataforma de generación de contenido que utiliza inteligencia artificial.

Imagen: Opción de generación de avatares en la herramienta Captions

De hecho, podemos encontrar en el listado a todos los supuestos doctores que aparecen en cada uno de los videos sospechosos. Por ejemplo, esta falsa ginecóloga con más de 13 años de experiencia:

Imagen: Video promocional (izquierda) y el avatar utilizado (derecha)

Estos avatares son parte del programa llamado “AI Creator”, en donde influencers y creadores de contenido pueden ofrecerse como protagonistas de estos videos generados artificialmente y ganar dinero por ello, simplemente filmando unos clips de minutos de duración y enviándolos a la plataforma.

Y si bien este tipo de videos conformaría una violación a los Términos y Condiciones de la aplicación, esto también debe ser un aprendizaje para creadores de contenido que estén considerando inscribirse en este tipo de programas remunerados.

En tiempos de desinformación de fácil llegada, es vital poder reconocer este tipo de engaños o publicidades infundadas. Por eso, debemos buscar señales de que se trata de un contenido falsificado y engañoso en los siguientes puntos:

– Desincronización de la boca y labios, que no coinciden del todo con el audio.

– Expresiones faciales poco naturales o rígidas.

– Artefactos visuales y distorsiones, como bordes borrosos o cambios repentinos de iluminación.

– Voz robótica, artificial o con entonación demasiado uniforme.

– Cuentas de reciente creación, con pocos seguidores o sin historial relevante.

– Lenguaje exagerado, con frases como “cura milagrosa”, “los doctores no quieren que lo sepas” o “100% garantizado”.

– Afirmaciones que no tienen respaldo científico, o que se basan en estudios o fuentes de poca reputación.

– Llamado a la urgencia y presión para comprar en frases como “solo por tiempo limitado” o “pocas unidades disponibles”.

Si encontramos este tipo de contenidos, es vital no compartir o creer antes de verificar el origen o propósito de las afirmaciones de los videos. Además, y en el caso de identificar un contenido engañoso, debemos denunciar la publicación ante la red social que estemos usando.

Fuente: www.welivesecurity.com

 

 

 

Regreso a clases y tecnología: Cómo aprovechar la inteligencia artificial para las tareas

Claves para un buen uso de la IA

La IA puede ser una herramienta poderosa para optimizar el estudio, permitiendo la creación de planes de estudio personalizados, la automatización de tareas repetitivas y la mejora de la comprensión y retención de información. Te presentamos lo siguiente:

  • No reemplazar la interacción humana: La IA debe ser utilizada como una herramienta complementaria, no como un reemplazo para la interacción con profesores y compañeros. 

Inteligencia Artificial. Dos pioneros del aprendizaje por refuerzo, Andrew Barto, de 76 años, y Richard Sutton, de 67, son los ganadores del “Premio A.M. Turing” de este año, considerado el “Nobel de la Informática”.

  • Usar la IA de forma responsable: Es importante utilizar la IA de forma ética y responsable, citando las fuentes y evitando el plagio. 
  • Aprender a usar la IA: Es importante aprender a usar la IA de forma efectiva, para poder aprovechar al máximo sus beneficios. 
  • No depender de la IA:La IA no debe ser la única fuente de conocimiento, es importante complementar el aprendizaje con la lectura y la investigación. 

¡Y estas son algunas apps recomendadas y sus beneficios!

Beneficios de usar IA para estudiar:

  • Plan de estudio personalizado:La IA puede analizar tus fortalezas y debilidades para crear un plan de estudio adaptado a tus necesidades individuales. 
  • Optimización del tiempo:Automatiza tareas repetitivas y permite una mejor planificación del tiempo de estudio. 

Archivo – Imagen de recurso de inteligencia artificial (IA). SOPRA STERIA – Archivo

  • Mejora la comprensión y retención:La IA puede proporcionar retroalimentación instantánea y personalizada, mejorando la comprensión y retención de la información. 
  • Herramientas para la investigación y la creación de contenido:La IA puede ayudar en la investigación, la elaboración de resúmenes, la creación de presentaciones y la edición de imágenes y videos. 
  • Aprender idiomas:Aplicaciones como Duolingo utilizan IA para ofrecer una experiencia de aprendizaje de idiomas entretenida y efectiva. 

Ejemplos de herramientas de IA para estudiantes:

  • Algor: Herramienta que permite la automatización de tareas, la gestión de materiales de estudio y la creación de mapas conceptuales. 
  • Duolingo: Aplicación para aprender idiomas que utiliza IA para ofrecer una experiencia de aprendizaje personalizada. 
  • Wolfram Alpha: Motor de respuestas que utiliza inteligencia computacional para responder preguntas complejas en una variedad de temas. 

Inteligencia Artificial (IA) ChatGPT.

Inteligencia Artificial (IA) ChatGPT.

ChatGPT y DeepSeek: Herramienta para la creación de contenido, la revisión de textos y la respuesta a preguntas. 

 

Fuente: www.fayerwayer.com

 

 

Cómo la inteligencia artificial está facilitando los fraude de identificación

El fraude por deepfake, las identidades sintéticas y las estafas impulsadas por IA hacen que el robo de identidad sea más difícil de detectar y prevenir: así es cómo contraatacar.

La inteligencia artificial (IA) está transformando nuestro mundo de formas esperadas e imprevistas. Para los consumidores, la tecnología significa contenidos digitales personalizados con mayor precisión, mejores diagnósticos médicos, traducción de idiomas en tiempo real para ayudar durantes las vacaciones y asistentes generativos de IA para mejorar la productividad en el trabajo. Pero la IA también se utiliza para ayudar a los ciberdelincuentes a ser más productivos, especialmente cuando se trata de fraude de identidad, el tipo de fraude más común hoy en día.

Más de un tercio de los líderes de riesgo e innovación bancaria en el Reino Unido, España y Estados Unidos consideran que el aumento del fraude generado por IA y deepfakes es su mayor desafío actual , convirtiéndolo en la respuesta número uno. Entonces, ¿cómo funciona el fraude generado por IA y qué puedes hacer para mantenerte a salvo?

¿Cómo funciona el fraude de identidad generado por IA?

El fraude de identidad se refiere al uso de su información de identificación personal (PII) para cometer un delito, como acumular una deuda de tarjeta de crédito en su nombre o acceder a una cuenta bancaria o de otro tipo. Según una estimación, el fraude inducido por la IA representa actualmente más de dos quintas partes (43%) de todos los intentos de fraude registrados por el sector financiero y de pagos. Se cree que casi un tercio (29%) de esos intentos tienen éxito. ¿Cómo está ayudando la IA a los ciberdelincuentes?

Podemos destacar varias tácticas diferentes:

  • Apropiación fraudulenta de cuentas (ATO) y creación de cuentas: Los estafadores utilizan imitaciones de audio y vídeo de usuarios legítimos para eludir las comprobaciones de Conozca a su cliente (KYC) que utilizan las empresas de servicios financieros para verificar que los clientes son quienes dicen ser. Se extrae una imagen o un vídeo suyo de la web y se introduce en una herramienta de deepfake o IA generativa. A continuación, se inserta en el flujo de datos entre el usuario y el proveedor de servicios en los llamados ataques de inyección diseñados para engañar a los sistemas de autenticación. Un informe afirma que los deepfakes representan ya una cuarta parte (24%) de los intentos fraudulentos de pasar controles biométricos basados en el movimiento y el 5% de los controles estáticos basados en selfies.
  • Falsificación de documentos: Hubo un tiempo en que los estafadores utilizaban falsificaciones de documentos físicos, como páginas de pasaporte falsificadas, para abrir nuevas cuentas a nombre de víctimas desprevenidas. Sin embargo, hoy es más probable que lo hagan digitalmente. Según este informe, las falsificaciones digitales representan más del 57% de todos los fraudes documentales, lo que supone un aumento anual del 244%. Los estafadores suelen acceder a plantillas de documentos en línea o descargan imágenes de documentos robados en filtraciones de datos y luego alteran los detalles en Photoshop. Las herramientas de IA generativa (GenAI) les ayudan a hacerlo a gran velocidad y escala.
  • Fraude sintético: En este caso, los estafadores crean nuevas identidades combinando datos personales reales (robados) e inventados para formar una identidad completamente nueva (sintética), o crean una nueva identidad utilizando únicamente datos inventados. Esto se utiliza, por ejemplo, para abrir nuevas cuentas en bancos y empresas de tarjetas de crédito. Las falsificaciones de documentos y las falsificaciones profundas pueden combinarse con estas identidades para aumentar las posibilidades de éxito de los estafadores. Según un informe, el 76% de los profesionales estadounidenses del fraude y el riesgo creen que su organización tiene clientes sintéticos. Estiman que este tipo de fraude ha aumentado un 17% anual.
  • Deepfakes que engañan a amigos y familiares: A veces, se pueden utilizar vídeos o audios falsos en estafas que engañan incluso a seres queridos. Una táctica es el secuestro virtual, en el que los familiares reciben una llamada telefónica de un actor de amenazas que afirma haberle secuestrado. Reproducen un audio deepfake de tu voz como prueba y luego piden un rescate. GenAI también se puede utilizar en estos esfuerzos para ayudar a los estafadores a encontrar una víctima probable. El asesor de seguridad global de ESET Jake Moore dio una muestra de lo que es posible actualmente.
  • Relleno de credenciales (para ATO): El relleno de credenciales implica el uso de inicios de sesión robados en intentos automatizados de acceder a otras cuentas para las que puede haber utilizado el mismo nombre de usuario y contraseña. Las herramientas basadas en IA podrían generar rápidamente estas listas de credenciales a partir de múltiples fuentes de datos, lo que ayudaría a escalar los ataques. Y también podrían utilizarse para imitar con precisión el comportamiento humano al iniciar sesión, con el fin de engañar a los filtros defensivos.

¿Cuál es el impacto del fraude basado en IA?

El fraude dista mucho de ser un delito sin víctimas. De hecho, el fraude basado en IA puede

  • Causar una gran angustia emocional a la persona estafada. Un informe afirma que el 16% de las víctimas contemplaron el suicidio como resultado de un delito de identidad
  • Aumentar las probabilidades de éxito de las estafas, reduciendo los beneficios, lo que obliga a las empresas a subir los precios para todos
  • Repercuten en la economía nacional. Menos beneficios significa menos ingresos fiscales, lo que a su vez significa menos dinero para gastar en servicios públicos
  • Minan la confianza de los ciudadanos en el Estado de Derecho e incluso en la democracia
  • Minan la confianza de las empresas, lo que puede reducir los niveles de inversión en el país

Cómo mantener su identidad a salvo del fraude impulsado por la IA

Para combatir el uso ofensivo de la IA en su contra, las organizaciones recurren cada vez más a herramientas defensivas de IA para detectar los signos reveladores del fraude. Pero, ¿qué puede hacer usted? Tal vez la estrategia más efectiva sea minimizar las oportunidades para que los actores de amenazas obtengan su PII y datos de audio / video en primer lugar. Esto significa

  • No comparta información en exceso en las redes sociales y restrinja su configuración de privacidad
  • Sea consciente del phishing: compruebe los dominios del remitente, busque errores tipográficos y gramaticales, y nunca haga clic en enlaces o abra archivos adjuntos en correos electrónicos no solicitados
  • Active la autenticación multifactor (MFA) en todas las cuentas
  • Utilice siempre contraseñas seguras y únicas almacenadas en un gestor de contraseñas
  • Mantener el software actualizado en todos los portátiles y dispositivos móviles
  • Vigilar de cerca las cuentas bancarias y de tarjetas, comprobando regularmente si hay actividad sospechosa y congelando las cuentas inmediatamente si algo no parece correcto
  • Instalar software de seguridad multicapa de un proveedor acreditado en todos los dispositivos

También considere mantenerse al tanto de las últimas tácticas de fraude impulsadas por IA y educar a amigos y familiares sobre deepfakes y fraude de IA.

Los ataques de fraude impulsados por IA solo seguirán creciendo a medida que la tecnología se vuelva más barata y más eficaz. A medida que esta nueva carrera de armas cibernéticas se desarrolla entre los defensores de la red corporativa y sus adversarios, son los consumidores los que se verán atrapados en el medio. Asegúrese de no ser el siguiente.

 

Fuente: www.welivesecurity.com

DeepSeek ya está siendo utilizado para distribuir malware a través de sitios falsos

Analizamos una campaña que suplanta la identidad de DeepSeek para distribuir malware a través de sitios que imitan al oficial.

En los últimos días, luego del lanzamiento de DeepSeek, se detectó una campaña de distribución de malware a través de sitios falsos que imitan al oficial de esta herramienta de inteligencia artificial generativa open source. Así, una vez más los cibercriminales muestran cómo aprovechan temas o eventos de interés masivo.

La web maliciosa, reportada por el usuario de X @g0njxa ,tiene un diseño es muy similar al sitio legítimo, pero detalles como la URL o la opción de descargar una app delatan su falsedad. Por eso es tan relevante siempre observar bien la URL y chequear su veracidad. La mejor opción es tipear por ti mismo letra a letra.

Diferencias entre el sitio real y el falso

En el sitio oficial, el botón principal dice «Start Now», ya que DeepSeek se usa directamente en la web.

Imagen 1: Web oficial de DeepSeek

En el sitio falso, el botón dice «Download Now» y eso implica la descarga de un archivo que como veremos es malicioso, mientras que DeepSeek no precisa de instalación; cualquier sitio que solicite una descarga representa un posible riesgo.

Imagen 2: Sitio falso con alta similitud con el oficial.

En cuanto al sitio apócrifo, según el mismo usuario de X, el dominio de esta URL es usado por otros sitios que impersonan diversos software para distribuir el mismo malware. Este dominio utiliza la firma digital que supuestamente proviene de una empresa llamada «K.MY TRADING TRANSPORT COMPANY LIMITED» para intentar que parezca un archivo legítimo y evitar ser detectado por sistemas de seguridad.

Imagen 3: Captura de tweet del usuario @g0njxa

Descarga del archivo malicioso

Si un usuario hace clic en el botón del sitio falso, se descarga un archivo ejecutable (.exe) con el nombre de DeepSeek.

En la telemetría de ESET, este archivo es detectado como Win32/Packed.NSIS.A y, hasta el momento, se ha registrado esta actividad en China, Rusia y otros países de Europa. De todas formas, sirve como advertencia, ya que este tipo de campañas aprovechándose de la creciente popularidad de esta nueva herramienta podrían verse en otras partes del mundo o incluso en América Latina. Por lo tanto, se recomienda precaución al acceder a herramientas en línea

Recomendaciones

Para evitar descargar archivos maliciosos o ingresar credenciales en sitios fraudulentos, se sugiere:

1. Verificar la URL antes de acceder o ingresar datos.

2. Evitar descargas innecesarias en herramientas que funcionan desde la web.

3. Usar soluciones de seguridad para analizar archivos antes de ejecutarlos.

4. Consultar fuentes confiables para conocer posibles riesgos y campañas activas.

El monitoreo de este tipo de campañas permite identificar patrones y prevenir incidentes relacionados con la distribución de malware.

 

Fuente: www.welivesecurity.com

Deepseek: cuatro claves para entender el modelo que revolucionaría la industria

¿Cómo funciona?, ¿por qué es tan competitiva?, ¿cómo se entrena? y ¿qué riesgos presenta?, respondemos a estas preguntas respecto al modelo de Inteligencia Artifical que promete revolucionar la industria, no solo por su bajo costo, sino también porque es capaz de aprender de otros modelos similares. Expertos aseguran que Deepseek podría marcar un punto de inflexión en el desarrollo de los chatbots con inteligencia artificial.

 

Fuente: www.france24.com

Se suma al juego: Firefox también suma herremientas de inteligencia artificial

Mozilla acaba de lanzar Firefox 135 y, como era de esperarse en la era de la inteligencia artificial, el navegador ahora integra IA. Pero aquí hay un giro interesante: a diferencia de Microsoft Edge con Copilot o Brave con su chatbot Leo AI, Firefox no ha desarrollado su propia IA, sino que ha decidido simplemente abrir la puerta a las opciones que ya existen.

IA en Firefox: ¿qué cambia?

A partir de esta versión, los usuarios podrán acceder directamente a chatbots como ChatGPT de OpenAI, Claude de Anthropic, Le Chat Mistral y HuggingChat. Básicamente, en lugar de obligarte a usar una IA específica, Firefox te deja elegir con cuál quieres interactuar.

Inicialmente, esta función se estaba probando de manera limitada, pero según las notas de la versión, ahora se está implementando para todos los usuarios de forma gradual.

Eso sí, hay que aclarar algo importante: Firefox no está regalando suscripciones premium a estos servicios. Si quieres usarlos, tendrás que pagar por ellos como cualquier otro usuario. Para acceder, solo tienes que hacer clic en el botón “Sparkle” en la barra lateral y seleccionar el proveedor de IA que prefieras.

Más que IA: Firefox también combate trucos molestos

Más allá de la inteligencia artificial, Firefox 135 trae mejoras realmente útiles. Para empezar, ahora incluye traducción automática en chino, japonés y coreano, lo que será una gran ayuda para quienes navegan por sitios en esos idiomas.

Además, el navegador ha decidido tomar cartas en el asunto contra una de las tácticas más molestas de ciertos sitios web: el abuso del historial de navegación. Seguro te ha pasado que intentas volver atrás en una página y terminas atrapado en un bucle interminable dentro del mismo sitio. Bueno, Firefox 135 bloquea esta práctica, permitiéndote escapar con un simple clic en “Atrás”.

En cuanto a seguridad, también hay novedades. Se ha implementado el sistema CRLite para mejorar la verificación de certificados digitales, lo que significa una navegación más segura.

Firefox te deja elegir

Si eres de los que prefieren evitar la inteligencia artificial, Firefox 135 no te obligará a usarla. Pero si quieres tener acceso a estos chatbots de manera rápida y sencilla, ahora tienes una forma fácil de hacerlo.

Mozilla ha decidido no apostar todo por la IA, pero tampoco quiere ignorarla. En lugar de forzarte a utilizar su propia versión, te da opciones y deja que seas tú quien decida. ¿Una estrategia inteligente? Solo el tiempo lo dirá.

 

Fuente: www.fayerwayer.com

La china DeepSeek sacude Wall Street: Nvidia pierde su corona en un lunes histórico

La llegada a escena de la china DeepSeek al mundo de la inteligencia artificial provocó un terremoto bursátil en Wall Street, desplomando las acciones de la líder en chips Nvidia en un 17% y llevándola a perder más de 600.000 millones de dólares en capitalización. Este evento marca la mayor destrucción de valor de mercado en un solo día en la historia.

Wall Street vivió un lunes teñido de rojo tras la llegada de DeepSeek, una nueva inteligencia artificial desarrollada en China que amenaza con reconfigurar el sector tecnológico global.

Nvidia, la hasta ahora indiscutible líder en chips para inteligencia artificial, sufrió un desplome histórico en su valor accionario, cayendo más de un 17% hasta los 118 dólares por acción, desde los USD 142 que ostentaba el pasado viernes 24 de enero.

En términos de capitalización bursátil, la compañía estadounidense perdió más de 600.000 millones de dólares en una sola jornada, superando el récord de pérdida anterior de 278.900 millones de dólares de 2020.

Comportamiento bursátil de Nvidia. © france 24 español

El desplome también le quitó a la empresa la corona que le daba el título de las empresas más valiosas del mundo, título que ahora ostenta Apple, con una capitalización de 3,49 billones de dólares pues Nvidia, cuyo valor cayó por debajo de los 3 billones, se encuentra ahora en tercera posición, por detrás de la empresa creadora del iPhone y del segundo, el gigante Microsoft. 

El movimiento del terremoto bursátil también llegó hasta las compañías energéticas, pues  los inversores temen que la irrupción de modelos más eficientes como el de Deepseek reduzca la demanda de energía proyectada para los centros de datos y la infraestructura de IA. 

Un escenario que llevó a empresas como Vistra y GE Vernova a ver caídas del 23% y 17,7% respectivamente, mientras que Eaton y NRG también sufrieron desplomes de entre el 12% y el 13%.

DeepSeek: una revolución de bajo costo

La razón de todo este terremoto fue el lanzamiento del modelo R1 de DeepSeek, una versión económica y altamente eficiente de ChatGPT, que ya se ha coronado como la aplicación más descargada en la App Store de Apple en Estados Unidos.

Y es que el modelo de DeepSeek, lanzado el pasado 20 de enero, representa un cambio de paradigma en la industria de la inteligencia artificial, pues según la compañía china, su sistema alcanza un rendimiento equiparable a los últimos desarrollos de OpenAI en tareas complejas como matemáticas, razonamiento del lenguaje y codificación, pero con una inversión monetaria considerablemente menor. 

Su entrenamiento, realizado en tan solo 55 días con un presupuesto de 5,57 millones de dólares, utilizó procesadores H800 de Nvidia, diseñados específicamente para el mercado chino tras las restricciones impuestas por Washington en la exportación de chips de alto rendimiento.

Ese valor es menos de una décima parte del presupuesto empleado por OpenAI en su modelo GPT-4, según reportó el medio chino The Paper y parte de la clave del éxito de DeepSeek radica en sus técnicas avanzadas de aprendizaje automático que le permiten operar con menos datos y optimizar el uso de recursos computacionales.

La respuesta de Nvidia

En medio de la tormenta, Nvidia ha adoptado un tono conciliador. En un comunicado, la empresa calificó a DeepSeek como “un excelente avance de IA” y “un ejemplo perfecto de escalado en tiempo de prueba”.

Comunicado Nvidia. © france 24 español

Según un portavoz, el trabajo de DeepSeek demuestra que es posible crear modelos eficientes utilizando recursos computacionales disponibles y cumpliendo con las regulaciones de exportación.

No obstante, Nvidia también destacó que la fase de inferencia de estos modelos sigue requiriendo un número significativo de sus GPU y redes de alto rendimiento, sugiriendo que el impacto de DeepSeek podría ser menos catastrófico de lo que parece.

Fuente: www.france24.com