¿Qué preguntas no hacerle al ChatGPT?

Ecuador ­– Chatear con una inteligencia artificial puede parecer una experiencia mágica y revolucionaria, ya que la tecnología que hay detrás de ChatGPT responde con rapidez, entiende contextos complejos e incluso escribe textos enteros. Sin embargo, mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias. En este contexto, ESET, compañía líder en detección proactiva de amenazas, advierte que hay ciertos tipos de preguntas que pueden dar respuestas inexactas, inapropiadas o incluso peligrosas.

El equipo de especialistas comenta que saber qué no preguntar a una IA no es solo una cuestión de etiqueta digital, sino también una forma de utilizar esta poderosa herramienta de manera más eficaz. Más al considerar que según encuestas, las preguntas más comúnmente utilizadas con las IA son sobre temas personales relevantes: ¿Cómo puedo mejorar mi salud mental? ¿Qué método es más efectivo para perder peso? ¿Cómo puedo empezar un negocio exitoso?

“Al hablar de seguridad y privacidad, hay información que se debe evitar incluir al realizar consultas en ChatGPT. Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones. ”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Estas son, según ESET, algunas de las principales preguntas que no deberías hacer a ChatGPT y el porqué:

Preguntas relacionadas con información confidencial o sensible: En el mundo de la ciberseguridad, la regla es clara: nunca compartir datos personales, bancarios, contraseñas o cualquier tipo de información sensible en conversaciones con una inteligencia artificial. A pesar de parecer una interacción privada, las herramientas de IA desde ESET destacan que no son entornos cifrados o seguros para compartir datos sensibles.

Esto significa que al compartir información sensible con la IA, se están poniendo esos datos en riesgo. Los ciberdelincuentes ya están comerciando en foros de la dark web cuentas de ChatGPT robadas, lo que es una clara señal del interés que despierta el robo de estas cuentas.

Preguntas relacionadas con datos confidenciales o de propiedad de la empresa: Los empleados que utilicen IA deben ser extremadamente cuidadosos cuando traten con datos corporativos confidenciales. Nunca compartir informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales con estas plataformas. Esto se debe a que la IA puede no distinguir automáticamente entre datos públicos y privados, lo que supone un riesgo significativo para la seguridad e integridad de la información corporativa.

Además, cuando se hagan preguntas relacionadas con los datos o la información de una empresa, es importante recordar que las plataformas de IA no son entornos autorizados para tratar estos temas. Para garantizar la protección de los datos corporativos y cumplir con las políticas internas de seguridad, es preferible acudir siempre a plataformas y herramientas autorizadas por cada organización para el tratamiento de información corporativa sensible.

Preguntas que esperan un asesoramiento médico, legal o financiero definitivo: Además de las cuestiones de seguridad y privacidad relacionadas con el uso de ChatGPT, también es importante destacar aspectos relacionados con la veracidad de la información y el uso responsable de la información proporcionada por ChatGPT.

Aunque las IAs pueden ayudar a aclarar conceptos y proporcionar información general de fuentes fiables, no sustituyen a los profesionales cualificados. Buscar un diagnóstico médico, asesoramiento jurídico o decidir sobre inversiones basándose únicamente en las respuestas de la IA es como buscar síntomas en Google: podría acabar en concluir que un simple dolor de cabeza es algo mucho más grave. Es posible que la IA no tenga acceso a todo el contexto de la situación y no pueda hacer una evaluación personalizada y responsable, que es exactamente lo que requieren estos ámbitos.

Así que evitar confiar ciegamente en las respuestas automatizadas cuando se trate de la salud, dinero o asuntos jurídicos delicados. Estos ámbitos requieren un análisis minucioso, que tenga en cuenta detalles que solo pueden evaluar profesionales experimentados. Para garantizar las decisiones más seguras y acordes con su realidad, buscar siempre el consejo de un médico, abogado o asesor financiero, que sabrá interpretar su caso de forma personalizada y responsable.

Preguntas que requieren opiniones, preferencias o sentimientos humanos: Aunque la IA utiliza un lenguaje natural y amigable, no tiene conciencia, emociones u opiniones reales. Las respuestas que proporciona se basan en algoritmos lingüísticos y patrones de datos, sin ninguna experiencia emocional ni juicio personal. Esto significa que cuando se le pregunta «¿Qué harías?» o «¿Te gusto?», la respuesta que se recibirá será una simulación de una interacción humana, pero sin la verdadera intención o sentimiento que hay detrás.

Es importante recordar que cuando se interactúa con una IA, se está tratando con una herramienta que ha sido programada para generar respuestas basadas en datos. La IA puede parecer empática, pero no tiene la capacidad de sentir ni de formar opiniones propias. Así que si lo que se busca es un consejo genuino o una respuesta emocional, es mejor que hablar con una persona real que pueda ofrecer empatía y criterio.

Preguntas sobre decisiones personales importantes: La IA puede ser muy útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para tomar decisiones fundamentales sobre la vida personal, la carrera o el propio bienestar. Tomar decisiones cruciales, como un cambio de carrera profesional, cuestiones de salud mental o elecciones familiares, requiere un análisis más profundo, que tenga en cuenta no solo los datos y la lógica, sino también los aspectos emocionales y subjetivos. Es posible que la IA no comprenda el contexto completo de las emociones y circunstancias.

Por eso, a la hora de enfrentarse a decisiones que afectan significativamente la vida, como cambios de carrera o cuestiones personales complejas, es esencial buscar la orientación de expertos y personas de confianza. La interpretación de la IA puede ser útil como punto de partida, pero la decisión final debe tomarse de manera personal, con el apoyo de un mentor/a, terapeuta o consejeros que puedan tener en cuenta los matices de la situación.

“Al interactuar con herramientas como ChatGPT, destacan que es importante centrarse en la seguridad digital y el uso responsable. Entender qué preguntas no se deben hacer a una IA ayuda a preservar la privacidad, garantizar la exactitud de la información y proteger los datos sensibles. Además, utilizar la IA como herramienta complementaria, en lugar de como fuente definitiva de respuestas, contribuye a tomar decisiones más informadas y seguras. Siguiendo las pautas anteriores, se podrá sacar el máximo partido a esta tecnología sin poner en riesgo tu seguridad ni la de los demás.”, concluye Gutiérrez Amaya, de ESET.

 

Fuente: Departamento de Comunicación ESET Ecuador

Regreso a clases y tecnología: Cómo aprovechar la inteligencia artificial para las tareas

Claves para un buen uso de la IA

La IA puede ser una herramienta poderosa para optimizar el estudio, permitiendo la creación de planes de estudio personalizados, la automatización de tareas repetitivas y la mejora de la comprensión y retención de información. Te presentamos lo siguiente:

  • No reemplazar la interacción humana: La IA debe ser utilizada como una herramienta complementaria, no como un reemplazo para la interacción con profesores y compañeros. 

Inteligencia Artificial. Dos pioneros del aprendizaje por refuerzo, Andrew Barto, de 76 años, y Richard Sutton, de 67, son los ganadores del “Premio A.M. Turing” de este año, considerado el “Nobel de la Informática”.

  • Usar la IA de forma responsable: Es importante utilizar la IA de forma ética y responsable, citando las fuentes y evitando el plagio. 
  • Aprender a usar la IA: Es importante aprender a usar la IA de forma efectiva, para poder aprovechar al máximo sus beneficios. 
  • No depender de la IA:La IA no debe ser la única fuente de conocimiento, es importante complementar el aprendizaje con la lectura y la investigación. 

¡Y estas son algunas apps recomendadas y sus beneficios!

Beneficios de usar IA para estudiar:

  • Plan de estudio personalizado:La IA puede analizar tus fortalezas y debilidades para crear un plan de estudio adaptado a tus necesidades individuales. 
  • Optimización del tiempo:Automatiza tareas repetitivas y permite una mejor planificación del tiempo de estudio. 

Archivo – Imagen de recurso de inteligencia artificial (IA). SOPRA STERIA – Archivo

  • Mejora la comprensión y retención:La IA puede proporcionar retroalimentación instantánea y personalizada, mejorando la comprensión y retención de la información. 
  • Herramientas para la investigación y la creación de contenido:La IA puede ayudar en la investigación, la elaboración de resúmenes, la creación de presentaciones y la edición de imágenes y videos. 
  • Aprender idiomas:Aplicaciones como Duolingo utilizan IA para ofrecer una experiencia de aprendizaje de idiomas entretenida y efectiva. 

Ejemplos de herramientas de IA para estudiantes:

  • Algor: Herramienta que permite la automatización de tareas, la gestión de materiales de estudio y la creación de mapas conceptuales. 
  • Duolingo: Aplicación para aprender idiomas que utiliza IA para ofrecer una experiencia de aprendizaje personalizada. 
  • Wolfram Alpha: Motor de respuestas que utiliza inteligencia computacional para responder preguntas complejas en una variedad de temas. 

Inteligencia Artificial (IA) ChatGPT.

Inteligencia Artificial (IA) ChatGPT.

ChatGPT y DeepSeek: Herramienta para la creación de contenido, la revisión de textos y la respuesta a preguntas. 

 

Fuente: www.fayerwayer.com

 

 

La china DeepSeek sacude Wall Street: Nvidia pierde su corona en un lunes histórico

La llegada a escena de la china DeepSeek al mundo de la inteligencia artificial provocó un terremoto bursátil en Wall Street, desplomando las acciones de la líder en chips Nvidia en un 17% y llevándola a perder más de 600.000 millones de dólares en capitalización. Este evento marca la mayor destrucción de valor de mercado en un solo día en la historia.

Wall Street vivió un lunes teñido de rojo tras la llegada de DeepSeek, una nueva inteligencia artificial desarrollada en China que amenaza con reconfigurar el sector tecnológico global.

Nvidia, la hasta ahora indiscutible líder en chips para inteligencia artificial, sufrió un desplome histórico en su valor accionario, cayendo más de un 17% hasta los 118 dólares por acción, desde los USD 142 que ostentaba el pasado viernes 24 de enero.

En términos de capitalización bursátil, la compañía estadounidense perdió más de 600.000 millones de dólares en una sola jornada, superando el récord de pérdida anterior de 278.900 millones de dólares de 2020.

Comportamiento bursátil de Nvidia. © france 24 español

El desplome también le quitó a la empresa la corona que le daba el título de las empresas más valiosas del mundo, título que ahora ostenta Apple, con una capitalización de 3,49 billones de dólares pues Nvidia, cuyo valor cayó por debajo de los 3 billones, se encuentra ahora en tercera posición, por detrás de la empresa creadora del iPhone y del segundo, el gigante Microsoft. 

El movimiento del terremoto bursátil también llegó hasta las compañías energéticas, pues  los inversores temen que la irrupción de modelos más eficientes como el de Deepseek reduzca la demanda de energía proyectada para los centros de datos y la infraestructura de IA. 

Un escenario que llevó a empresas como Vistra y GE Vernova a ver caídas del 23% y 17,7% respectivamente, mientras que Eaton y NRG también sufrieron desplomes de entre el 12% y el 13%.

DeepSeek: una revolución de bajo costo

La razón de todo este terremoto fue el lanzamiento del modelo R1 de DeepSeek, una versión económica y altamente eficiente de ChatGPT, que ya se ha coronado como la aplicación más descargada en la App Store de Apple en Estados Unidos.

Y es que el modelo de DeepSeek, lanzado el pasado 20 de enero, representa un cambio de paradigma en la industria de la inteligencia artificial, pues según la compañía china, su sistema alcanza un rendimiento equiparable a los últimos desarrollos de OpenAI en tareas complejas como matemáticas, razonamiento del lenguaje y codificación, pero con una inversión monetaria considerablemente menor. 

Su entrenamiento, realizado en tan solo 55 días con un presupuesto de 5,57 millones de dólares, utilizó procesadores H800 de Nvidia, diseñados específicamente para el mercado chino tras las restricciones impuestas por Washington en la exportación de chips de alto rendimiento.

Ese valor es menos de una décima parte del presupuesto empleado por OpenAI en su modelo GPT-4, según reportó el medio chino The Paper y parte de la clave del éxito de DeepSeek radica en sus técnicas avanzadas de aprendizaje automático que le permiten operar con menos datos y optimizar el uso de recursos computacionales.

La respuesta de Nvidia

En medio de la tormenta, Nvidia ha adoptado un tono conciliador. En un comunicado, la empresa calificó a DeepSeek como “un excelente avance de IA” y “un ejemplo perfecto de escalado en tiempo de prueba”.

Comunicado Nvidia. © france 24 español

Según un portavoz, el trabajo de DeepSeek demuestra que es posible crear modelos eficientes utilizando recursos computacionales disponibles y cumpliendo con las regulaciones de exportación.

No obstante, Nvidia también destacó que la fase de inferencia de estos modelos sigue requiriendo un número significativo de sus GPU y redes de alto rendimiento, sugiriendo que el impacto de DeepSeek podría ser menos catastrófico de lo que parece.

Fuente: www.france24.com

Fallo en ChatGPT expuso dirección de correo y otra información de usuarios

Se advierte sobre un fallo en una librería de código abierto expuso el historial de preguntas de otros usuarios, además de información de pago de suscriptores a ChatGPT Plus.

ECUADOR – ESET, analiza el fallo que permitió por un lapso de tiempo que usuarios puedan ver preguntas del historial de búsqueda de otros usuarios de ChatGPT y expuso información personal de un pequeño porcentaje de suscriptores al plan pago de este servicio, como nombre y apellido, dirección de correo asociada al pago, los últimos cuatro dígitos de la tarjeta de crédito y la fecha de expiración.

Todo comenzó el pasado 20 de marzo cuando usuarios a través de Twitter y Reddit comenzaron a reportar que en su historial preguntas aparecían consultas realizadas por otros usuarios. En algunos casos en otros idiomas. Según confirmó OpenAI en un comunicado, todo esto provocó que se suspendiera el servicio de ChatGPT por un tiempo hasta que se corrigió el fallo y luego el servicio se reestableció.

Todo comenzó el pasado 20 de marzo cuando usuarios a través de Twitter y Reddit comenzaron a reportar que en su historial preguntas aparecían consultas realizadas por otros usuarios. En algunos casos en otros idiomas.

Además del historial de consultas, algunas personas también reportaron que en la página de pagos para ChatGPT Plus aparecía la dirección de correo de otros usuarios:

En el caso de los datos de pago, según explicó OpenAI, el fallo afectó al 1.2% de suscriptores activos a ChatGPT Plus y si bien confirmó que parte de la información expuesta incluía los últimos cuatro dígitos de las tarjetas de crédito, en ningún caso quedaron expuestos los números completos.

La compañía detrás de ChatGPT aseguró que se contactó con los usuarios afectados por la exposición de esta información y confía en que los datos personales de los usuarios ya no está en riesgo.

En cuanto a la corrección del fallo, OpenAI no solo confirmó que lo que provocó esta exposición de información fue un fallo que radicaba en el cliente de la librería Redis, sino que envió un parche al equipo de mantenimiento de Redis que corrigió el error.

Corrigen vulnerabilidad en ChatGPT que permite el secuestro de cuentas

Además del fallo que permitió la exposición de información, Gal Nagli reportó a OpenAI una vulnerabilidad que permite realizar ataques de Web Cache Deception. Según explicó en Twitter, la vulnerabilidad, que ya fue corregida, permitía robar cuentas de terceros, ver el historial de consultas y acceder a los datos de pago de las cuentas.

ChatGPT es el blanco de cibercriminales

Recientemente alertamos sobre distintas estafas y engaños que han estado circulando aprovechando el éxito de ChatGPT. Entre los ejemplos mencionamos lo que fue el hallazgo reciente de una falsa extensión para Google Chrome llamada “Quick access to Chat GPT” que los cibercriminales estuvieron utilizando para robar cuentas de Facebook, las cuales eran a su vez utilizadas para crear bots y desplegar publicidad maliciosa. Sin embargo, esta no fue la única extensión maliciosa que se descubre aprovechando el nombre de ChatGPT, ya que investigadores de Guardio revelaron la semana pasada que descubrieron una nueva variante de la misma extensión maliciosa que roba cuentas de la red social. En este caso se trata de una versión troyanizada de una extensión legítima llamada “ChatGPT for Google”.

Como podemos ver, ChatGPT es atractiva para los actores maliciosas, ya sea para utilizar la herramienta con fines maliciosos, así como también para suplantar su identidad y engañar a personas desprevenidas. Probablemente esta tendencia continuará y seguiremos viendo casos donde se intente explotar vulnerabilidades o realizar fraudes en su nombre”, agrega Camilo Gutiérrez Amaya, Jefe del Laboratorio de investigación de ESET Latinoamérica.

Fuente: www.welivesecurity.com

 

Estafas y engaños alrededor de ChatGPT

Extensiones maliciosas, falsos sitios de ChatGPT que distribuyen malware o perfiles falsos en redes sociales son algunas de las formas en que los cibercriminales utilizan el nombre de este servicio para atraer a potenciales víctimas.

Ecuador – ChatGPT ha despertado gran interés desde su aparición por su sorprendente capacidad y por las posibles formas de uso en diferentes escenarios. Esta atracción e interés masivo, como siempre sucede, también es aprovechado por los cibercriminales que buscan sacar partido de la popularidad de esta tecnología para cometer algún tipo de fraude. A continuación, repasamos algunos ejemplos de cómo distintos cibercriminales y estafadores están utilizando como señuelo a ChatGPT para engañar a las personas. Probablemente aparezcan nuevas formas a medida que el tiempo transcurra y el interés por esta tecnología siga en auge.

Falsas extensiones de ChatGPT en Chrome  

Recientemente se descubrió una extensión maliciosa para Google Chrome, llamada “Quick access to Chat GPT”, que ofrecía acceso directo a Chat GPT. Si bien la extensión proporciona la funcionalidad que promete, el objetivo principal es robar cuentas de Facebook y de otros servicios. Luego, los delincuentes utilizaban estas cuentas robadas para crear bots y desplegar a través de la red social más anuncios maliciosos que distribuyen malware y robar credenciales.

La extensión, que se promocionaba a través de anuncios de Facebook creados por cuentas previamente robadas, estuvo disponible durante seis días y registró un promedio de 2000 instalaciones diarias. La misma ya fue eliminada del repositorio oficial de Chrome.

Al ser instalado en el equipo de la víctima, este complemento para el navegador recopilaba información del navegador, como cookies de sesiones abiertas de cualquier servicios activo (como Facebook) y enviaba esta información a un servidor del atacante.

Investigadores de Guardio, que fueron quienes descubrieron este complemento, revelaron que se trata de una campaña que comenzó en febrero y que incluye otras extensiones maliciosas para Chrome que también utilizan el nombre de ChatGPT. Por lo tanto, no sería extraño que exista otra extensión maliciosa en actividad o que pueda aparecer una nueva en un futuro cercano. Así que mucho cuidado con las extensiones que instalamos en nuestro navegador.

Sitios y perfiles falsos de ChatGPT en redes sociales

También se ha detectado la presencia de páginas en redes sociales como Facebook que promueven contenido sobre esta herramienta, pero que también se utilizan para distribuir enlaces y anuncios que llevan a sitios que se hacen pasar por ChatGPT. Algunas de estas páginas buscan engañar a las víctimas para que descarguen archivos maliciosos en sus equipos. Investigadores han detectado que algunos de estos sitios descargaban malware que roba credenciales del equipo infectado.

Vale la pena mencionar que debido a la demanda que existe por ChatGPT y que muchas personas no pueden acceder al servicio por el volumen de personas interesadas en utilizar la herramienta, ahora OpenAI ofrece la posibilidad de pagar para acceder a la versión Plus. Esto también es utilizado por los atacantes para intentar robar los datos financieros de la tarjeta mediante falsos formularios.

Falsas apps para móviles de ChatGPT

Por el momento ChatGPT no está disponible a través de una app para teléfonos. Sin embargo, los cibercriminales están aprovechando este escenario para distribuir falsas apps para Android que descargan spyware o adware en los smartphones. Investigadores de Cyble detectaron más de 50 apps maliciosas que utilizaban el logo de ChatGPT que tenían como objetivo final realizar algún tipo de actividad maliciosa.

Otro caso reportado por Gizmodo reveló que en App Store se ha estado distribuyendo una app de dudosa reputación que utiliza el nombre de ChatGPT de forma gratuita, pero que al cabo de tres días cobra cargos de suscripción.

Si bien estas son algunas de las formas que -hasta ahora- han explorado los atacantes, seguramente aparezcan nuevos casos o incluso otras formas de aprovechar el interés y la curiosidad para cometer algún tipo de delito. Por lo tanto, las personas deberán estar atentas y desconfiar de los resultados de búsqueda, de los anuncios que muestran los resultados de Google o en las redes sociales. También se debe prestar atención a los enlaces que se comparten en grupos donde se discute sobre este tema o de cualquier app que prometa instalar este chatbot en el teléfono o como software en la computadora”, concluye el Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Fuente: www.welivesecurity.com

¿Sustituirá empleos ChatGPT?: son candidatos «trabajos repetitivos y de baja cualificación, como cajeros del súper»

Los puestos de atención al cliente, programación, redacción y traducción podrían ser los principales afectados por la inteligencia artificial de ChatGPT.

La inteligencia humana y artificial se pueden complementar.©[geralt] via Pixabay.com.

Algunos ciudadanos piensan que los robots podrían sustituir puestos de trabajo en un futuro porque son más rápidos y eficaces que una plantilla de empleados. En determinados supermercados se pueden ver los primeros cajeros autopagos que quitan el puesto a dependientes, pero, ¿podría pasar lo mismo con periodistas, profesores o programadores por el nacimiento de ChatGPT? Esta revolución destaca por la capacidad que tiene su inteligencia artificial (IA) para escribir textos, contestar a mensajes o redactar.

Aunque si todavía no sabes de qué hablo, ChatGPT es un sistema de chat de OpenAI que cuenta con su propia extensión para navegadores, además, puede conseguir una respuesta instantánea sin tener que recurrir a distintas webs para resolver dudas.

A mediados de diciembre, los servidores de dicha inteligencia artificial (IA) estaban saturados a causa de las demandas por parte de los usuarios, por consiguiente, OpenAI limitó el número de preguntas. En otras situaciones, ChatGPT se coló en las respuestas de Twitter, puso en apuros a Google por su potencial uso en los motores de búsqueda, e incluso actualmente, Microsoft quiere integrar esta tecnología en Bing para atraer a los usuarios.

Cada vez son más los usuarios que explotan las ventajas e inconvenientes que ofrece ChatGPT. Recientemente, un profesor universitario advirtió que uno de sus alumnos utilizó el chatbot para hacer sus tareas académicas, aunque OpenAI creó un detector para introducir una redacción y comprobar el porcentaje de lo que es real y falso.

Muchas personas se preguntan si el boom de ChatGPT podría sustituir a trabajadores por su gran capacidad de mantener conversaciones y realizar tareas relacionadas con el lenguaje, pero, ¿sería posible? La propia IA indica que «es difícil predecir con certeza qué empleos serán sustituidos en el futuro, pero algunos candidatos potenciales podrían ser trabajos repetitivos y de baja cualificación, como cajeros de supermercado, operadores de maquinaria, atención al cliente, etc.».

¿Adiós a determinados puestos de trabajo?

Si queremos evitar que una tecnología innovadora nos arrebate un puesto de trabajo, Paul Barth (responsable global de alfabetización de datos en Qlik) señala que «en un mundo en el que la IA consumible (es decir, aquella que utilizan las personas en su día a día o que está a su alcance) es cada vez más común, aspectos como la alfabetización de datos gozan de gran importancia. En este sentido, la capacidad de superponer la experiencia del mundo real a los insights será más valiosa que nunca y las empresas deberán empoderar a más profesionales especializados para trabajar con la inteligencia artificial y los datos para obtener valor de todo ello».

En el caso de trabajar con la IA, los profesores, periodistas o programadores no se verían afectados porque podrían completarse con el chatbot. Por ejemplo, ChatGPT ayudaría a los maestros a preparar material didáctico, a los periodistas a recopilar y organizar información, y a los programadores a realizar tareas específicas. Unas de las grandes habilidades que tienen los humanos y no la inteligencia artificial son las capacidades de empatizar, investigar, pensar ideas o aportar juicios de valor.

Esta IA podría facilitar el trabajo de varias profesiones en la actualidad y en un futuro. ¿El motivo? Posee una rápida resolución de problemas y una gran capacidad de aprendizaje para las habilidades relacionadas con la ciencia y tecnología, como la biotecnología o el conocimiento de programación.

El ChatGPT de OpenAI plantea la pregunta «¿qué ocurrirá con los seres humanos que escriben para ganarse la vida o trabajan en sectores creativos, si la IA está demostrando que puede hacer lo mismo a un nivel aún más alto?» Respuesta → «El rol de las personas será crítico en lo que respecta a higiene de datos, garantizando la calidad y precisión de la información para reducir sesgos o malentendidos. Además, podrán aportar un contexto matizado de la realidad, cosa que una máquina no puede hacer».

La inteligencia artificial y humana son complementarias

Existen diferencias entre la inteligencia artificial y humana, para empezar, el cerebro trabaja con la información que le rodea con el objetivo de analizarla para tomar decisiones correctas, mientras que la inteligencia artificial imita el comportamiento humano.

Por otro lado, el proceso de aprendizaje de un usuario depende de los problemas, cambios y decisiones; sin embargo, la IA se diseña únicamente para tareas precisas.

Barth añade que Wcon todo ello, podemos afirmar que los humanos desempeñarán un papel fundamental en el éxito de la IA y, por lo tanto, colaborar con esta tecnología les permitirá verlo como una oportunidad de mejora, y no como una amenaza con la que sustituirles. Así, podrán acelerar la creación de contenidos y generar nuevos conceptos a partir de diversas fuentes de datos, siempre y cuando dispongan de las herramientas y de la alfabetización de datos necesarios para ello».

Fuente: www.20minutos.es