Fallo en ChatGPT expuso dirección de correo y otra información de usuarios

Se advierte sobre un fallo en una librería de código abierto expuso el historial de preguntas de otros usuarios, además de información de pago de suscriptores a ChatGPT Plus.

ECUADOR – ESET, analiza el fallo que permitió por un lapso de tiempo que usuarios puedan ver preguntas del historial de búsqueda de otros usuarios de ChatGPT y expuso información personal de un pequeño porcentaje de suscriptores al plan pago de este servicio, como nombre y apellido, dirección de correo asociada al pago, los últimos cuatro dígitos de la tarjeta de crédito y la fecha de expiración.

Todo comenzó el pasado 20 de marzo cuando usuarios a través de Twitter y Reddit comenzaron a reportar que en su historial preguntas aparecían consultas realizadas por otros usuarios. En algunos casos en otros idiomas. Según confirmó OpenAI en un comunicado, todo esto provocó que se suspendiera el servicio de ChatGPT por un tiempo hasta que se corrigió el fallo y luego el servicio se reestableció.

Todo comenzó el pasado 20 de marzo cuando usuarios a través de Twitter y Reddit comenzaron a reportar que en su historial preguntas aparecían consultas realizadas por otros usuarios. En algunos casos en otros idiomas.

Además del historial de consultas, algunas personas también reportaron que en la página de pagos para ChatGPT Plus aparecía la dirección de correo de otros usuarios:

En el caso de los datos de pago, según explicó OpenAI, el fallo afectó al 1.2% de suscriptores activos a ChatGPT Plus y si bien confirmó que parte de la información expuesta incluía los últimos cuatro dígitos de las tarjetas de crédito, en ningún caso quedaron expuestos los números completos.

La compañía detrás de ChatGPT aseguró que se contactó con los usuarios afectados por la exposición de esta información y confía en que los datos personales de los usuarios ya no está en riesgo.

En cuanto a la corrección del fallo, OpenAI no solo confirmó que lo que provocó esta exposición de información fue un fallo que radicaba en el cliente de la librería Redis, sino que envió un parche al equipo de mantenimiento de Redis que corrigió el error.

Corrigen vulnerabilidad en ChatGPT que permite el secuestro de cuentas

Además del fallo que permitió la exposición de información, Gal Nagli reportó a OpenAI una vulnerabilidad que permite realizar ataques de Web Cache Deception. Según explicó en Twitter, la vulnerabilidad, que ya fue corregida, permitía robar cuentas de terceros, ver el historial de consultas y acceder a los datos de pago de las cuentas.

ChatGPT es el blanco de cibercriminales

Recientemente alertamos sobre distintas estafas y engaños que han estado circulando aprovechando el éxito de ChatGPT. Entre los ejemplos mencionamos lo que fue el hallazgo reciente de una falsa extensión para Google Chrome llamada “Quick access to Chat GPT” que los cibercriminales estuvieron utilizando para robar cuentas de Facebook, las cuales eran a su vez utilizadas para crear bots y desplegar publicidad maliciosa. Sin embargo, esta no fue la única extensión maliciosa que se descubre aprovechando el nombre de ChatGPT, ya que investigadores de Guardio revelaron la semana pasada que descubrieron una nueva variante de la misma extensión maliciosa que roba cuentas de la red social. En este caso se trata de una versión troyanizada de una extensión legítima llamada “ChatGPT for Google”.

Como podemos ver, ChatGPT es atractiva para los actores maliciosas, ya sea para utilizar la herramienta con fines maliciosos, así como también para suplantar su identidad y engañar a personas desprevenidas. Probablemente esta tendencia continuará y seguiremos viendo casos donde se intente explotar vulnerabilidades o realizar fraudes en su nombre”, agrega Camilo Gutiérrez Amaya, Jefe del Laboratorio de investigación de ESET Latinoamérica.

Fuente: www.welivesecurity.com

 

Estafas y engaños alrededor de ChatGPT

Extensiones maliciosas, falsos sitios de ChatGPT que distribuyen malware o perfiles falsos en redes sociales son algunas de las formas en que los cibercriminales utilizan el nombre de este servicio para atraer a potenciales víctimas.

Ecuador – ChatGPT ha despertado gran interés desde su aparición por su sorprendente capacidad y por las posibles formas de uso en diferentes escenarios. Esta atracción e interés masivo, como siempre sucede, también es aprovechado por los cibercriminales que buscan sacar partido de la popularidad de esta tecnología para cometer algún tipo de fraude. A continuación, repasamos algunos ejemplos de cómo distintos cibercriminales y estafadores están utilizando como señuelo a ChatGPT para engañar a las personas. Probablemente aparezcan nuevas formas a medida que el tiempo transcurra y el interés por esta tecnología siga en auge.

Falsas extensiones de ChatGPT en Chrome  

Recientemente se descubrió una extensión maliciosa para Google Chrome, llamada “Quick access to Chat GPT”, que ofrecía acceso directo a Chat GPT. Si bien la extensión proporciona la funcionalidad que promete, el objetivo principal es robar cuentas de Facebook y de otros servicios. Luego, los delincuentes utilizaban estas cuentas robadas para crear bots y desplegar a través de la red social más anuncios maliciosos que distribuyen malware y robar credenciales.

La extensión, que se promocionaba a través de anuncios de Facebook creados por cuentas previamente robadas, estuvo disponible durante seis días y registró un promedio de 2000 instalaciones diarias. La misma ya fue eliminada del repositorio oficial de Chrome.

Al ser instalado en el equipo de la víctima, este complemento para el navegador recopilaba información del navegador, como cookies de sesiones abiertas de cualquier servicios activo (como Facebook) y enviaba esta información a un servidor del atacante.

Investigadores de Guardio, que fueron quienes descubrieron este complemento, revelaron que se trata de una campaña que comenzó en febrero y que incluye otras extensiones maliciosas para Chrome que también utilizan el nombre de ChatGPT. Por lo tanto, no sería extraño que exista otra extensión maliciosa en actividad o que pueda aparecer una nueva en un futuro cercano. Así que mucho cuidado con las extensiones que instalamos en nuestro navegador.

Sitios y perfiles falsos de ChatGPT en redes sociales

También se ha detectado la presencia de páginas en redes sociales como Facebook que promueven contenido sobre esta herramienta, pero que también se utilizan para distribuir enlaces y anuncios que llevan a sitios que se hacen pasar por ChatGPT. Algunas de estas páginas buscan engañar a las víctimas para que descarguen archivos maliciosos en sus equipos. Investigadores han detectado que algunos de estos sitios descargaban malware que roba credenciales del equipo infectado.

Vale la pena mencionar que debido a la demanda que existe por ChatGPT y que muchas personas no pueden acceder al servicio por el volumen de personas interesadas en utilizar la herramienta, ahora OpenAI ofrece la posibilidad de pagar para acceder a la versión Plus. Esto también es utilizado por los atacantes para intentar robar los datos financieros de la tarjeta mediante falsos formularios.

Falsas apps para móviles de ChatGPT

Por el momento ChatGPT no está disponible a través de una app para teléfonos. Sin embargo, los cibercriminales están aprovechando este escenario para distribuir falsas apps para Android que descargan spyware o adware en los smartphones. Investigadores de Cyble detectaron más de 50 apps maliciosas que utilizaban el logo de ChatGPT que tenían como objetivo final realizar algún tipo de actividad maliciosa.

Otro caso reportado por Gizmodo reveló que en App Store se ha estado distribuyendo una app de dudosa reputación que utiliza el nombre de ChatGPT de forma gratuita, pero que al cabo de tres días cobra cargos de suscripción.

Si bien estas son algunas de las formas que -hasta ahora- han explorado los atacantes, seguramente aparezcan nuevos casos o incluso otras formas de aprovechar el interés y la curiosidad para cometer algún tipo de delito. Por lo tanto, las personas deberán estar atentas y desconfiar de los resultados de búsqueda, de los anuncios que muestran los resultados de Google o en las redes sociales. También se debe prestar atención a los enlaces que se comparten en grupos donde se discute sobre este tema o de cualquier app que prometa instalar este chatbot en el teléfono o como software en la computadora”, concluye el Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Fuente: www.welivesecurity.com

¿Sustituirá empleos ChatGPT?: son candidatos «trabajos repetitivos y de baja cualificación, como cajeros del súper»

Los puestos de atención al cliente, programación, redacción y traducción podrían ser los principales afectados por la inteligencia artificial de ChatGPT.

La inteligencia humana y artificial se pueden complementar.©[geralt] via Pixabay.com.

Algunos ciudadanos piensan que los robots podrían sustituir puestos de trabajo en un futuro porque son más rápidos y eficaces que una plantilla de empleados. En determinados supermercados se pueden ver los primeros cajeros autopagos que quitan el puesto a dependientes, pero, ¿podría pasar lo mismo con periodistas, profesores o programadores por el nacimiento de ChatGPT? Esta revolución destaca por la capacidad que tiene su inteligencia artificial (IA) para escribir textos, contestar a mensajes o redactar.

Aunque si todavía no sabes de qué hablo, ChatGPT es un sistema de chat de OpenAI que cuenta con su propia extensión para navegadores, además, puede conseguir una respuesta instantánea sin tener que recurrir a distintas webs para resolver dudas.

A mediados de diciembre, los servidores de dicha inteligencia artificial (IA) estaban saturados a causa de las demandas por parte de los usuarios, por consiguiente, OpenAI limitó el número de preguntas. En otras situaciones, ChatGPT se coló en las respuestas de Twitter, puso en apuros a Google por su potencial uso en los motores de búsqueda, e incluso actualmente, Microsoft quiere integrar esta tecnología en Bing para atraer a los usuarios.

Cada vez son más los usuarios que explotan las ventajas e inconvenientes que ofrece ChatGPT. Recientemente, un profesor universitario advirtió que uno de sus alumnos utilizó el chatbot para hacer sus tareas académicas, aunque OpenAI creó un detector para introducir una redacción y comprobar el porcentaje de lo que es real y falso.

Muchas personas se preguntan si el boom de ChatGPT podría sustituir a trabajadores por su gran capacidad de mantener conversaciones y realizar tareas relacionadas con el lenguaje, pero, ¿sería posible? La propia IA indica que «es difícil predecir con certeza qué empleos serán sustituidos en el futuro, pero algunos candidatos potenciales podrían ser trabajos repetitivos y de baja cualificación, como cajeros de supermercado, operadores de maquinaria, atención al cliente, etc.».

¿Adiós a determinados puestos de trabajo?

Si queremos evitar que una tecnología innovadora nos arrebate un puesto de trabajo, Paul Barth (responsable global de alfabetización de datos en Qlik) señala que «en un mundo en el que la IA consumible (es decir, aquella que utilizan las personas en su día a día o que está a su alcance) es cada vez más común, aspectos como la alfabetización de datos gozan de gran importancia. En este sentido, la capacidad de superponer la experiencia del mundo real a los insights será más valiosa que nunca y las empresas deberán empoderar a más profesionales especializados para trabajar con la inteligencia artificial y los datos para obtener valor de todo ello».

En el caso de trabajar con la IA, los profesores, periodistas o programadores no se verían afectados porque podrían completarse con el chatbot. Por ejemplo, ChatGPT ayudaría a los maestros a preparar material didáctico, a los periodistas a recopilar y organizar información, y a los programadores a realizar tareas específicas. Unas de las grandes habilidades que tienen los humanos y no la inteligencia artificial son las capacidades de empatizar, investigar, pensar ideas o aportar juicios de valor.

Esta IA podría facilitar el trabajo de varias profesiones en la actualidad y en un futuro. ¿El motivo? Posee una rápida resolución de problemas y una gran capacidad de aprendizaje para las habilidades relacionadas con la ciencia y tecnología, como la biotecnología o el conocimiento de programación.

El ChatGPT de OpenAI plantea la pregunta «¿qué ocurrirá con los seres humanos que escriben para ganarse la vida o trabajan en sectores creativos, si la IA está demostrando que puede hacer lo mismo a un nivel aún más alto?» Respuesta → «El rol de las personas será crítico en lo que respecta a higiene de datos, garantizando la calidad y precisión de la información para reducir sesgos o malentendidos. Además, podrán aportar un contexto matizado de la realidad, cosa que una máquina no puede hacer».

La inteligencia artificial y humana son complementarias

Existen diferencias entre la inteligencia artificial y humana, para empezar, el cerebro trabaja con la información que le rodea con el objetivo de analizarla para tomar decisiones correctas, mientras que la inteligencia artificial imita el comportamiento humano.

Por otro lado, el proceso de aprendizaje de un usuario depende de los problemas, cambios y decisiones; sin embargo, la IA se diseña únicamente para tareas precisas.

Barth añade que Wcon todo ello, podemos afirmar que los humanos desempeñarán un papel fundamental en el éxito de la IA y, por lo tanto, colaborar con esta tecnología les permitirá verlo como una oportunidad de mejora, y no como una amenaza con la que sustituirles. Así, podrán acelerar la creación de contenidos y generar nuevos conceptos a partir de diversas fuentes de datos, siempre y cuando dispongan de las herramientas y de la alfabetización de datos necesarios para ello».

Fuente: www.20minutos.es


Deprecated: trim(): Passing null to parameter #1 ($string) of type string is deprecated in /home1/uiolibre/public_html/wp-content/plugins/simple-lightbox/includes/class.utilities.php on line 545