¿Qué preguntas no hacerle al ChatGPT?

Ecuador ­– Chatear con una inteligencia artificial puede parecer una experiencia mágica y revolucionaria, ya que la tecnología que hay detrás de ChatGPT responde con rapidez, entiende contextos complejos e incluso escribe textos enteros. Sin embargo, mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias. En este contexto, ESET, compañía líder en detección proactiva de amenazas, advierte que hay ciertos tipos de preguntas que pueden dar respuestas inexactas, inapropiadas o incluso peligrosas.

El equipo de especialistas comenta que saber qué no preguntar a una IA no es solo una cuestión de etiqueta digital, sino también una forma de utilizar esta poderosa herramienta de manera más eficaz. Más al considerar que según encuestas, las preguntas más comúnmente utilizadas con las IA son sobre temas personales relevantes: ¿Cómo puedo mejorar mi salud mental? ¿Qué método es más efectivo para perder peso? ¿Cómo puedo empezar un negocio exitoso?

“Al hablar de seguridad y privacidad, hay información que se debe evitar incluir al realizar consultas en ChatGPT. Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones. ”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Estas son, según ESET, algunas de las principales preguntas que no deberías hacer a ChatGPT y el porqué:

Preguntas relacionadas con información confidencial o sensible: En el mundo de la ciberseguridad, la regla es clara: nunca compartir datos personales, bancarios, contraseñas o cualquier tipo de información sensible en conversaciones con una inteligencia artificial. A pesar de parecer una interacción privada, las herramientas de IA desde ESET destacan que no son entornos cifrados o seguros para compartir datos sensibles.

Esto significa que al compartir información sensible con la IA, se están poniendo esos datos en riesgo. Los ciberdelincuentes ya están comerciando en foros de la dark web cuentas de ChatGPT robadas, lo que es una clara señal del interés que despierta el robo de estas cuentas.

Preguntas relacionadas con datos confidenciales o de propiedad de la empresa: Los empleados que utilicen IA deben ser extremadamente cuidadosos cuando traten con datos corporativos confidenciales. Nunca compartir informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales con estas plataformas. Esto se debe a que la IA puede no distinguir automáticamente entre datos públicos y privados, lo que supone un riesgo significativo para la seguridad e integridad de la información corporativa.

Además, cuando se hagan preguntas relacionadas con los datos o la información de una empresa, es importante recordar que las plataformas de IA no son entornos autorizados para tratar estos temas. Para garantizar la protección de los datos corporativos y cumplir con las políticas internas de seguridad, es preferible acudir siempre a plataformas y herramientas autorizadas por cada organización para el tratamiento de información corporativa sensible.

Preguntas que esperan un asesoramiento médico, legal o financiero definitivo: Además de las cuestiones de seguridad y privacidad relacionadas con el uso de ChatGPT, también es importante destacar aspectos relacionados con la veracidad de la información y el uso responsable de la información proporcionada por ChatGPT.

Aunque las IAs pueden ayudar a aclarar conceptos y proporcionar información general de fuentes fiables, no sustituyen a los profesionales cualificados. Buscar un diagnóstico médico, asesoramiento jurídico o decidir sobre inversiones basándose únicamente en las respuestas de la IA es como buscar síntomas en Google: podría acabar en concluir que un simple dolor de cabeza es algo mucho más grave. Es posible que la IA no tenga acceso a todo el contexto de la situación y no pueda hacer una evaluación personalizada y responsable, que es exactamente lo que requieren estos ámbitos.

Así que evitar confiar ciegamente en las respuestas automatizadas cuando se trate de la salud, dinero o asuntos jurídicos delicados. Estos ámbitos requieren un análisis minucioso, que tenga en cuenta detalles que solo pueden evaluar profesionales experimentados. Para garantizar las decisiones más seguras y acordes con su realidad, buscar siempre el consejo de un médico, abogado o asesor financiero, que sabrá interpretar su caso de forma personalizada y responsable.

Preguntas que requieren opiniones, preferencias o sentimientos humanos: Aunque la IA utiliza un lenguaje natural y amigable, no tiene conciencia, emociones u opiniones reales. Las respuestas que proporciona se basan en algoritmos lingüísticos y patrones de datos, sin ninguna experiencia emocional ni juicio personal. Esto significa que cuando se le pregunta «¿Qué harías?» o «¿Te gusto?», la respuesta que se recibirá será una simulación de una interacción humana, pero sin la verdadera intención o sentimiento que hay detrás.

Es importante recordar que cuando se interactúa con una IA, se está tratando con una herramienta que ha sido programada para generar respuestas basadas en datos. La IA puede parecer empática, pero no tiene la capacidad de sentir ni de formar opiniones propias. Así que si lo que se busca es un consejo genuino o una respuesta emocional, es mejor que hablar con una persona real que pueda ofrecer empatía y criterio.

Preguntas sobre decisiones personales importantes: La IA puede ser muy útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para tomar decisiones fundamentales sobre la vida personal, la carrera o el propio bienestar. Tomar decisiones cruciales, como un cambio de carrera profesional, cuestiones de salud mental o elecciones familiares, requiere un análisis más profundo, que tenga en cuenta no solo los datos y la lógica, sino también los aspectos emocionales y subjetivos. Es posible que la IA no comprenda el contexto completo de las emociones y circunstancias.

Por eso, a la hora de enfrentarse a decisiones que afectan significativamente la vida, como cambios de carrera o cuestiones personales complejas, es esencial buscar la orientación de expertos y personas de confianza. La interpretación de la IA puede ser útil como punto de partida, pero la decisión final debe tomarse de manera personal, con el apoyo de un mentor/a, terapeuta o consejeros que puedan tener en cuenta los matices de la situación.

“Al interactuar con herramientas como ChatGPT, destacan que es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras. Siguiendo las pautas anteriores, se podrá sacar el máximo partido a esta tecnología sin poner en riesgo tu seguridad ni la de los demás.”, concluye Gutiérrez Amaya, de ESET.

 

Fuente: Departamento de Comunicación ESET Ecuador

“Hola mamá”: La nueva estafa de WhatsApp que utiliza la suplantación de voz con inteligencia artificial

¿Cómo hacer para no caer en esta genialidad de los ciberdelincuentes?

Estafas por WhatsApp (Paola Hernández)

Los ciberdelincuentes mejoran sus tácticas para estafar a los usuarios de WhatsApp o cualquier servicio de mensajería, o plataforma de redes sociales. Recientes investigaciones de firmas internacionales encontraron un método de fraude bancario al que llamaron “Hola mamá”.

Los ciberatacantes, a través de la vieja táctica del phishing, utilizan la suplantación de voz de la inteligencia artificial, y estafan a madres adultas contemporáneas o de la tercera edad, haciéndose pasar por sus hijos.

El método llamado “Hola mamá” no sólo ataca a las madres. También a padres, tíos, otros familiares, amigos y conocidos. Los ciberdelincuentes estudian bien a sus víctimas y encuentran las personas con las que tengan algún tipo de vínculos para iniciar el contacto.

Después de encontrar la manera de suplantar la voz, lo que viene es mucho más conocido. Ejecutan el guion de “Tengo una emergencia, se me bloqueó el celular y las cuentas bancarias y necesito que me transfieras dinero a esta cuenta”.

A donde piden la transferencia es una cuenta totalmente desconocida, pero quien te está hablando es una persona familiar.

«Con este tipo de software, los estafadores pueden copiar cualquier voz que encuentren en línea y luego dirigirse a sus familiares con notas de voz que sean lo suficientemente convincentes como para hacerlos caer en la estafa», dijo Jake Moore, asesor global de ciberseguridad de ESET en una entrevista con Daily Mail.

Estafa en WhatsApp – Getty Estafa en WhatsApp – Getty (SOPA Images/LightRocket via Getty Images)

¿Cómo hacer para no caer?

Una investigación de un reconocido grupo bancario a nivel mundial revela que, sólo en abril del 2025 se registraron estafas que ascienden a los 170 mil dólares por medio de este método.

La manera de evitarlo, por ahora, es intentar contactar a la persona por la que se están haciendo pasar, a su número original que seguro tienes entre tus contactos.

 

Fuente: www.fayerwayer.com

 

 

Prompt Injection: una amenaza silenciosa para la seguridad en IA

La inyección de prompts compromete la seguridad de uno de los tipos de IA más usados los grandes modelos de lenguaje (LLM, sus siglas en inglés), al manipular respuestas y acceso a datos, generando riesgos críticos en inteligencia artificial y ciberseguridad.

La prompt injection es una vulnerabilidad que afecta a los LLM (Large Language Models), uno de los tipos de inteligencia artificial más utilizados dentro de los que se destacan ChatGPT, Gemini, entre otros.

Un prompt es una instrucción, pregunta o un texto que se utiliza para interactuar con sistemas de inteligencia artificial. En algunos casos, puede alterar la respuesta o el comportamiento de los LLM y dar un resultado que según su configuración o políticas de seguridad, no debería.

En una prompt injection el cibercriminal puede manipula el modelo, y logra que produzca resultados indebidos, que son imperceptibles por el usuario. Esto podría permitir que, por ejemplo, el modelo transmita datos incorrectos a otras piezas del modelo, revele información restringida, o genere contenido malicioso. Incluso podrá influir en las decisiones o resoluciones tomadas por el modelo.

Esta vulnerabilidad puede permitir que los cibercriminales accedan a información confidencial y realicen acciones a través de integraciones con APIs (Application Programming Interface). Si bien es una preocupación creciente en ciberseguridad, aún falta avanzar en formas de abordarla de manera eficaz.

¿Cómo funciona la inyección de prompts?

Un LLM es un tipo de modelo de Machine Learning que se entrena con grandes cantidades datos y está diseñado para responder instrucciones en lenguaje natural (humano). La prompt injection explota el hecho de que muchas veces los LLM confunden las entradas de los usuarios con las instrucciones predefinidas que le dan los desarrolladores —a través de prompts— sobre cómo deben manejar las entradas.

Estos prompts predefinidos se dan gracias al método de instruction fine-tunning, una técnica ajusta los LLMs mediante el añadido de instrucciones específicas a los datos de entrenamiento, y en general no escriben código a la hora del entrenamiento.

Tanto las entradas de los usuarios como los prompt de instruction fine tunning son cadenas de texto de lenguaje natural y por lo tanto el modelo es susceptible de confundirlo lo que deja abierta la vulnerabilidad.

Tipos de prompt injection

Se ha establecido una clasificación primaria de este tipo de ataque:

–        Prompt injection directas: Cuando la entrada del usuario afecta directamente el comportamiento del LLM, ya sea de manera intencional (cuando el usuario lo planea y lo arma) o no intencional, cuando por accidente los usuarios envían un prompt que por sus características generan una alteración del funcionamiento esperado del LLM.

–        Prompt injection indirectas: El modelo acepta prompts de fuentes externas o cuando el modelo acepta prompt de fuentes externas, como sitios web o archivos, cuyo contenido al ser interpretado genera la alteración. Nuevamente pueden ser intencionales o no.

¿Qué impacto puede generar?

Ante una prompt injection el modelo podría:

– Responder con información confidencial, tanto de usuarios como sobre la infraestructura del propio sistema

– Generar resultados sesgados o incorrectos para otros usuarios,

– Permitir acceso a distintas funciones del modelo (acceso que en principio no es abierto)

– Manipular la toma de decisiones, entre otras posibles consecuencias.

– Ejecución de código malicioso en dispositivos del usuario. Uno de los riesgos más graves a nivel de la ciberseguridad.

Ejemplos de ataques con prompt injection

El sitio Hoja de trucos de inyección rápida: cómo manipular modelos de lenguaje de IA permite ver varios ejemplos de este tipo de ataque. También OWASP da algunos casos hipotéticos.

Dentro de los ejemplos de OWASP, podemos destacar los siguientes:

– Escenario #1: Inyección directa

Un atacante inyecta un mensaje en un chatbot de atención al cliente, instruyéndole que ignore las pautas anteriores, consulte almacenes de datos privados y envíe correos electrónicos, lo que lleva a un acceso no autorizado y una escalada de privilegios.

– Escenario #2: Inyección indirecta

Un usuario emplea un LLM para resumir una página web que contiene instrucciones ocultas que hacen que el LLM inserte una imagen que enlaza con una URL, lo que lleva a la exfiltración de la conversación privada.

Prompt Injection Vs. Jailbreak

El prompt Injecton es básicamente la técnica definida en este artículo y usualmente es vinculado o confundido con los Jailbreaks.

Los Jailbreaks son métodos de manipulación del modelo para que realice acciones o de outputs con contenido restringido, en contra de las políticas del modelo evadiendo así las configuraciones de seguridad de este.

Un ejemplo muy conocido es el modo DAN donde previó a la entrada del prompt se escribe “Do anything now” induciendo al modelo a hacer cualquier cosa que se le pida con posterioridad a esa instrucción lo cual puede llevar a que este acepte tales instrucciones.

Mientras que el prompt injection manipula los outputs y comportamiento  del modelo mediante la inserción de instrucciones maliciosas, el jailbreak busca eludir las políticas de seguridad y así desbloquear funciones no permitidas.

Mitigaciones:

El framework Mittre ATLAS que trata exclusivamente las técnicas, tácticas y procesos que realizan los cibercriminales en sus ataques a modelos de IA, propone las siguientes formas de mitigación.

  • Establecer barreras de seguridad

Básicamente se las establece entre el modelo y la entrada y salida o output que recibe el usuario entre un modelo de IA. El objetivo es que el usuario no pueda generar los prompt ni que el modelo de salidas no deseadas o no permitidas. Estos podrían ser filtros, métodos de validación, reglas, clasificadores, entre otros.

  • Directrices para IA generativa

Las directrices son controles de seguridad que se colocan entre la entrada proporcionada por el usuario y un modelo de IA generativa para ayudar a dirigir el modelo para producir las salidas deseadas y evitar salidas no deseadas.

Las directrices se pueden implementar como instrucciones anexadas a todas las indicaciones del usuario o como parte de las instrucciones de la solicitud del sistema. Pueden definir los objetivos, la función y la voz del sistema, así como esbozar los parámetros de seguridad y protección

  • Alineación de modelos de IA generativa

Al entrenar o ajustar un modelo de IA generativa, es importante utilizar técnicas que mejoren la alineación del modelo con las políticas de seguridad, protección y contenido.

El proceso de ajuste puede eliminar potencialmente los mecanismos de seguridad incorporados en un modelo de IA generativa, pero el uso de técnicas como el ajuste fino supervisado, el aprendizaje por refuerzo a partir de la retroalimentación humana o la retroalimentación de IA, y la destilación de contexto de seguridad dirigida puede mejorar la seguridad y la alineación del modelo.

  • Registro de telemetría de IA

Implementar el registro de entradas y salidas de los modelos de IA implementados. La supervisión de registros puede ayudar a detectar amenazas de seguridad y mitigar los impactos.

 

Fuente: www.welivesecurity.com

Vladímir Putin quiere meter a Rusia en la carrera de la IA. Su plan es una mala noticia para EEUU: se aliará con China

  • El 24 de abril de 2023 Rusia anunció el lanzamiento de GigaChat, un chatbot que aspiraba a rivalizar con ChatGPT

  • Actualmente Rusia ocupa la posición 31 entre los 83 países cuyo desarrollo de la IA ha sido evaluado por Tortoise Media

Si nos ceñimos a la tecnología buena parte de las grandes potencias se ha embarcado en dos carreras que tienen una enorme importancia estratégica: la de las tecnologías cuánticas y la de la inteligencia artificial (IA). Rusia está muy presente en la primera, aunque si nos ceñimos a la información que tenemos es razonable concluir que va algo más retrasada que EEUU y China, los dos países que lideran de forma contundente en ordenadores cuánticos.

En el ámbito de la IA, sin embargo, Rusia apenas ha hecho ruido. El 24 de abril de 2023 anunció el lanzamiento oficial de GigaChat, un chatbot que aspiraba a rivalizar con ChatGPT. Pero no basta para competir con los países más avanzados en este terreno, y Vladímir Putin parece ser plenamente consciente de esta realidad. De hecho, según Reuters ha ordenado a su equipo de Gobierno y al mayor banco de Rusia, Sberbank, cooperar con China en el desarrollo de la IA.

Rusia considera a China el mejor aliado posible

A principios del pasado mes de diciembre el Kremlin anunció que Rusia cooperará en el futuro con sus socios de BRICS y otros países en el desarrollo de la IA. BRICS es una alianza de países con economías emergentes y una marcada influencia internacional que aglutina algo más del 40% de la población mundial y aproximadamente el 25% del producto interior bruto global. En el ámbito geopolítico esta organización se ha erigido como una alternativa al G7 constituida por Brasil, Rusia, India, China y Sudáfrica (de ahí el uso del acrónimo BRICS).

Lo que Vladímir Putin ha pedido a su equipo de Gobierno y Sberbank exactamente es que lideren los esfuerzos  de Rusia en el terreno de la IA con el propósito de «garantizar una mayor cooperación con la República Popular China en la investigación y el desarrollo tecnológico en el campo de la inteligencia artificial». German Gref, el director ejecutivo de Sberbank, reconoció en 2023 que las GPU para IA son los chips que están resultando a Rusia más difíciles de conseguir como resultado de las sanciones de EEUU y sus aliados.

Es evidente que en este contexto la mejor estrategia por la que puede apostar Rusia no es otra que aliarse con China. El país liderado por Xi Jinping también se enfrenta a las sanciones de EEUU y sus aliados en el ámbito de los semiconductores, pero esto no le ha impedido materializar avances notables en el terreno de la IA. Vladímir Putin aspira a desafiar el dominio de EEUU en esta tecnología, pero actualmente está muy lejos de este objetivo. De hecho, según el Índice Global de IA de Tortoise Media, que es una compañía de medios de comunicación de Reino Unido, Rusia ocupa la posición 31 entre los 83 países cuyo desarrollo de la IA ha sido evaluado.

Fuente: www.reuters.com

 

¿La inteligencia artificial en RRHH está cambiando para siempre la forma de contratar?

Se ha hablado mucho de la inteligencia artificial como sustituta de los puestos de trabajo, pero ¿cómo han cambiado los procesos de contratación con el uso de la IA?

En la era de la transformación digital, la Inteligencia Artificial (IA) se ha convertido rápidamente en una piedra angular de las operaciones de una organización y el proceso de contratación no es una excepción.

El panorama de la captación de talento es un campo minado con una media de más de 250 candidatos para una vacante corporativa, lo que hace que los reclutadores pasen entre 6 y 8 segundos mirando cada CV. Cuando las personas adecuadas pueden marcar una diferencia tan grande en la cultura y el rendimiento de una empresa, un proceso de contratación ineficaz puede costar a las empresas tiempo y dinero para encontrar sustitutos para las malas contrataciones y deshacer cualquier daño que puedan haber causado en el ínterin.

Para los responsables de la selección de personal, la IA supone una alternativa interesante a la criba de innumerables currículos, la redacción de descripciones de puestos de trabajo y la gestión de un bucle interminable de tareas administrativas diarias.

Las herramientas y los algoritmos impulsados por la IA están cambiando, y en algunos casos sustituyendo, todo el proceso de selección de personal. Esto se traduce en contrataciones más rápidas y experiencias más eficientes tanto para los candidatos como para el responsable de la selección.

Aunque este cambio hacia la IA aporta numerosos beneficios, también plantea cuestiones críticas sobre la equidad, la parcialidad y la privacidad.

Ya hemos visto anteriormente cómo las empresas pueden evitar exponer sus datos cuando utilizan grandes modelos lingüísticos (LLM). En esta ocasión, vamos a considerar las implicaciones más amplias del uso de la IA para agilizar sus procesos de contratación.

La revolución de la IA en la contratación

Los profesionales de Recursos Humanos saben lo que se tarda en contratar a un nuevo candidato. En primer lugar, hay que redactar la descripción del puesto, lo que puede llevar tiempo hasta que las personas adecuadas identifiquen las tareas y responsabilidades clave del puesto. A continuación, hay que aprobarla internamente antes de publicarla en las plataformas de búsqueda de empleo pertinentes o compartirla con los candidatos potenciales. Una vez que se han presentado todas las candidaturas deseadas, el responsable de la contratación debe revisarlas y preseleccionarlas antes de iniciar las entrevistas.

Pero ahora llega la IA y un nuevo proceso de contratación más ágil. Alrededor del 85% de los reclutadores creen que la IA es una tecnología útil que sustituirá algunas partes del proceso de contratación. En muchos casos, ya se ha introducido. Ya en 2019, una portavoz de la empresa Unilever dijo que su herramienta de contratación de IA ahorró más de 100.000 horas y 1 millón de dólares en costes globales de contratación ese año. Usar la IA en todo su potencial puede crear beneficios significativos para los ocupados reclutadores que necesitan cubrir un puesto vacante.

1. Selección más rápida de candidatos

Los modelos de IA pueden automatizar tareas repetitivas como la selección de currículos y la búsqueda de candidatos. En lugar de leer cientos de solicitudes para una sola vacante, los responsables de selección pueden introducir la información en un modelo de IA que identifique determinadas palabras clave que coincidan con la descripción del puesto y con lo que se está buscando.

A continuación, el modelo puede preseleccionar automáticamente a los candidatos en función de su grado de adecuación a los criterios deseados. Como resultado, los responsables de contratación pueden centrarse en aspectos más estratégicos de la adquisición de talento, o simplemente dedicarse a todo lo demás de sus crecientes listas de tareas pendientes.

2. Mejora de la experiencia del candidato

¿Alguna vez has dudado en solicitar un puesto de trabajo porque el reclutador no respondía a sus preguntas sobre el puesto? Pues ya no: Los chatbots y asistentes virtuales basados en IA ofrecen respuestas inmediatas a las preguntas de los candidatos, garantizando una experiencia más fluida y atractiva durante todo el proceso de contratación.

Las interacciones personalizadas y las respuestas rápidas contribuyen a una marca de empleador positiva, lo que aumenta el número de personas que desean trabajar para la empresa y, por lo tanto, aumenta la reserva de talento de la que pueden seleccionar los reclutadores.

3. Toma de decisiones basada en datos

Las herramientas de IA pueden utilizar análisis predictivos para identificar a los mejores candidatos basándose en datos históricos y métricas de rendimiento. Mediante el análisis de patrones en contrataciones exitosas, las organizaciones pueden tomar decisiones más informadas basadas en el rendimiento de contrataciones anteriores.

4. Mejora de la diversidad y la inclusión

Algunas plataformas de IA afirman mitigar el sesgo inconsciente en la contratación mediante el anonimato de la información del candidato, centrándose únicamente en las cualificaciones y habilidades. Al eliminar información identificativa como el nombre, el sexo o el origen étnico, estas herramientas pueden promover la diversidad y la inclusión en la contratación.

Riesgos y retos de la IA

La aplicación de la IA en el proceso de contratación también abre un nuevo abanico de riesgos y retos de seguridad que las organizaciones deben abordar para utilizar esta nueva herramienta de forma eficiente y honorable.

1. Sesgo algorítmico

Si un modelo se entrena con un conjunto de datos históricos, los sesgos históricos pueden trasladarse al resultado del modelo. Por ejemplo, si una empresa utilizara la IA para buscar en los currículos candidatos para un puesto de médico, y si el conjunto de datos con el que se ha entrenado muestra que el 80% de los médicos que históricamente encajaban en el puesto eran hombres, es más probable que el modelo favorezca a los candidatos masculinos frente a los femeninos, a pesar de que tengan la misma idoneidad para el puesto.

Además de las implicaciones internas de no ver a todos los candidatos adecuados, esto puede tener importantes consecuencias financieras y para la reputación. Consideremos este caso de la vida real en el que una empresa de clases particulares tuvo que pagar 365.000 dólares de indemnización cuando la IA descalificó automáticamente a los solicitantes en función de la edad como resultado de los datos que se le proporcionaron.

Además, la IA puede sobrevalorar el uso de palabras clave y métricas al revisar los currículos enviados. A diferencia de un ser humano, un sistema de IA podría no captar las habilidades interpersonales y otras experiencias o rasgos de carácter que harían de alguien un candidato más deseable para el puesto.

El proceso automatizado que utilizan los modelos de IA puede incluso favorecer a los candidatos que han utilizado la IA para crear su cur rículum utilizando la descripción del puesto publicada. El resultado es una presentación que «sobre el papel» parece perfecta para el puesto, pero que no es una representación auténtica u honesta de la idoneidad del candidato.

2. Falta de transparencia

Muchos algoritmos de IA funcionan como cajas negras, lo que significa que el proceso de toma de decisiones es poco claro y difícil de entender. Esta falta de transparencia plantea dudas sobre la responsabilidad y la capacidad de cuestionar o corregir los resultados sesgados.

Si las empresas no saben que su IA está sesgada o «envenenada», ¿cómo pueden rectificarla? ¿Y cómo van a saber cómo hacerlo? Esta falta de transparencia también puede ser una oportunidad para que los candidatos furtivos encuentren posibles lagunas en el sistema que lleven sus currículos a los primeros puestos de la lista.

3. Privacidad y seguridad de los datos

Para el uso de la IA en la contratación, los modelos necesitarían alimentarse de grandes cantidades de datos personales proporcionados por los candidatos y la propia organización. Garantizar la confidencialidad y seguridad de estos datos con suficientes medidas de ciberseguridad es primordial para proteger los derechos de privacidad de la empresa y de las personas, así como para cumplir con normativas como el Reglamento General de Protección de Datos (GDPR).

4. Supervisión humana y rendición de cuentas

Si bien la IA puede mejorar la eficiencia, la supervisión humana sigue siendo esencial para evitar el mal uso o la mala interpretación de los conocimientos generados por la IA. Las organizaciones deben establecer marcos y mecanismos claros de rendición de cuentas para abordar los errores algorítmicos o las infracciones éticas.

5. Cumplimiento legal y normativo

El uso de la IA en la contratación está sujeto a diversos marcos legales y reglamentarios, incluidas las leyes contra la discriminación y las normas de protección de datos. El incumplimiento de estos requisitos puede acarrear repercusiones legales y daños a la reputación.

¿Cómo puede su organización aprovechar la IA para la contratación de manera segura y eficaz?

Para aprovechar los beneficios de la IA y, al mismo tiempo, mitigar los riesgos asociados, las organizaciones deben adoptar un enfoque holístico de la IA. Esto incluye

1. Diseño ético de la IA

Priorizar la equidad, la transparencia y la responsabilidad en el desarrollo y despliegue de la IA en todos los sistemas de TI. Esto se puede hacer mediante la aplicación de medidas tales como algoritmos de detección de sesgos y evaluaciones periódicas de imparcialidad para identificar y abordar patrones discriminatorios.

2. Supervisión y evaluación continuas

Evaluar periódicamente el rendimiento de los algoritmos de IA para identificar y mitigar sesgos o errores. Establezca mecanismos de retroalimentación para que los candidatos informen de sus preocupaciones o proporcionen información sobre sus experiencias con los procesos de contratación impulsados por IA. Esta supervisión y seguimiento constantes significan que si algo va mal con el sistema de IA, se puede identificar y rectificar antes de que se acumulen las consecuencias negativas.

3. Perspectivas de equipos con conocimientos mixtos

Fomentar la colaboración entre profesionales de RRHH, científicos de datos, especialistas en ética y expertos legales para garantizar un enfoque multidisciplinar del funcionamiento de la IA. Una serie de conocimientos y perspectivas con vistas al modelo y los programas de IA respaldan el desarrollo de políticas y prácticas de IA sólidas y exhaustivas.

4. Educación y formación

Proporcionar formación a los reclutadores y directores de contratación sobre el uso ético de la IA en la contratación, incluida la concienciación sobre las estrategias de mitigación de sesgos y la importancia de la privacidad y la seguridad de los datos. Cultivar una cultura de adopción responsable de la IA en toda la organización con transparencia y directrices sobre la mejor manera de utilizarla.

5. Cumplimiento normativo

Mantenerse a la vanguardia de la evolución de los requisitos legales y reglamentarios en torno a la IA en la contratación y adaptar las políticas y prácticas de la empresa para garantizar un cumplimiento completo y mantenerse informado sobre los riesgos inminentes y cualquier laguna en el sistema de IA que los ciberdelincuentes puedan aprovechar.

En conclusión…

La IA presenta inmensas oportunidades para transformar los procesos de contratación, permitiendo a las organizaciones identificar y atraer a los mejores talentos de manera más eficaz en menos tiempo. Sin embargo, la adopción generalizada de la IA en la contratación también crea riesgos en torno a la parcialidad, la privacidad y la responsabilidad. Mediante la aplicación de las mejores prácticas enumeradas anteriormente, las organizaciones pueden superar estos desafíos y aprovechar la IA de manera responsable para lograr sus objetivos de contratación, manteniendo los principios de equidad, inclusión y autenticidad.

 

Fuente: www.welivesecurity.com

Warp, terminal basado en Rust con IA, ya está disponible en Linux

Los desarrolladores de Linux tienen un nuevo juguete con el que jugar: Warp. Warp es un emulador de terminal (actualmente) de código cerrado construido con el lenguaje de programación Rust.

Ofrece aceleración por hardware, IA integrada, capacidades de colaboración y utiliza un enfoque basado en «bloques» para agrupar comandos y salidas que ayudan a diferenciarlo de las herramientas tradicionales basadas en consola.

Además, en lo que respecta a la entrada de texto, Warp funciona más como un IDE o un editor de texto, ya que ofrece filtrado y selecciones, posicionamiento del cursor (incluidos cursores múltiples), autocompletado, resaltado de sintaxis y mucho más; el siguiente vídeo ofrece una buena visión general:

Warp, que antes era una aplicación exclusiva para Mac, ahora está disponible para distribuciones Linux, incluido Ubuntu.

En su lanzamiento, la aplicación Warp para Linux ya ofrece las mismas funciones que la versión para Mac (comparte el 98% del código subyacente), además de un rendimiento ligeramente superior gracias a optimizaciones adicionales específicas de la versión para Linux (pero que llegarán a Mac en una futura actualización).

Warp no es una aplicación Electron (uf). Está construida usando librerías Rust de código abierto (incluyendo, notablemente, cosmic-text de System76), y las correcciones de errores y otros ajustes son upstream. También hace uso de su propio marco de interfaz de usuario basado en Rust, que la empresa planea hacer de código abierto.

Warp es compatible con zsh, bash y fish, por lo que debería funcionar «listo para usar» con la mayoría de las configuraciones de shell existentes, aunque lo más probable es que alguien con una excepción compleja «realmente…» haga esa afirmación.

La aplicación también tiene una selección de temas por defecto (y soporte para crear temas personalizados), atajos de teclado configurables, soporta la división vertical del panel, y muchas otras características comunes de «emulador de terminal» con las que la mayoría estará familiarizado.

  • Navegación/introducción de texto al estilo IDE
  • Agrupación de comandos por bloques
  • Posibilidad de guardar y compartir comandos
  • Warp AI puede generar comandos a partir de texto normal
  • Personalización de las combinaciones de teclas y las configuraciones de inicio
  • Temas integrados y compatibilidad con temas personalizados

La IA integrada de Warp puede utilizarse para generar comandos a partir de una consulta en lenguaje natural, depurar errores o recordarte un comando que has olvidado.

Y las funciones de Warp Drive (tenían que usar ese nombre en algún sitio, ¿no?) te permiten hacer que el terminal sea colaborativo. Puedes guardar comandos como flujos de trabajo reutilizables, compartirlos con otros y mucho más.

¿Para quién es Warp?

Por muy potente e innovador que suene el terminal Warp, y por muy contento que esté de verlo aterrizar en Linux (la elección siempre es una victoria), no está dirigido a usuarios «normales» como yo.

Yo uso la terminal bastante, pero principalmente para cosas como ejecutar comandos apt, snap y flatpak, comprobar el uso de los recursos del sistema, escuchar música en un reproductor de música CLI, y alguna que otra compilación desde repositorios git – cosas para las que Warp es posiblemente excesivo.

Son las características de IA, colaboración y ayuda a la productividad las que hacen que este terminal sea (comparativamente) único. Por lo tanto, serán los usuarios habituales del terminal, y no los ocasionales, los que más se beneficien de ellas. Personas que pasan mucho tiempo trabajando en la consola.

«Linux es una plataforma singularmente importante para los desarrolladores, y el terminal es una herramienta singularmente importante en Linux. El terminal es a menudo la principal, y a veces la única, forma en que los desarrolladores utilizan las máquinas Linux», dicen desde la empresa que está detrás de la aplicación.

«A pesar de ello, Linux tiene relativamente pocas opciones de terminal en comparación con Mac y Windows, y ninguna con las modernas características de Warp. Esperamos que la adición de Warp como una opción de hoy desbloquea un montón de nueva productividad y la felicidad de los individuos y los equipos que pasan sus días en la consola de Linux.»

Descargar Warp para Linux

Warp tiene integración con IA – pero está limitada para las cuentas gratuitas
Una versión de Warp para Linux ha sido muy solicitada, siendo la compatibilidad con Linux uno de los temas más votados en la página de Warp en GitHub.

Si te apetece ver si el bombo está justificado, puedes descargar Warp para Linux con un instalador DEB proporcionado para Ubuntu (que añade el repositorio oficial de Warp APT). También hay una AppImage si prefieres usar eso, y paquetes para otras distros también están disponibles.

Ten en cuenta que tienes que registrarte para obtener una cuenta (gratuita o de pago) para utilizar la aplicación. Hay una política de privacidad (que en su mayor parte es tranquilizadora a su favor) a tener en cuenta, y es necesario tener una conexión a Internet activa para abrir y utilizar la cosa.

No puedo mentir: la idea de tener que iniciar sesión en una cuenta en línea para acceder a un terminal para ejecutar comandos localmente en mi propio ordenador me parece un poco retorcida, pero la mayor parte de las funciones incluidas aprovechan los servicios basados en la nube, así que supongo que no es tan extraño en su contexto.

Será interesante ver cómo recibe esta aplicación la comunidad Linux. La base de código cerrado y los modelos de negocio «freemium» suelen atraer poca atención.

Pero su conjunto de características e integraciones de flujo de trabajo son novedosas, y potencialmente pueden ser algo que otras aplicaciones de terminal decidan imitar con el tiempo.

Fuente: www.somoslibres.org