¿Sustituirá empleos ChatGPT?: son candidatos «trabajos repetitivos y de baja cualificación, como cajeros del súper»

Los puestos de atención al cliente, programación, redacción y traducción podrían ser los principales afectados por la inteligencia artificial de ChatGPT.

La inteligencia humana y artificial se pueden complementar.©[geralt] via Pixabay.com.

Algunos ciudadanos piensan que los robots podrían sustituir puestos de trabajo en un futuro porque son más rápidos y eficaces que una plantilla de empleados. En determinados supermercados se pueden ver los primeros cajeros autopagos que quitan el puesto a dependientes, pero, ¿podría pasar lo mismo con periodistas, profesores o programadores por el nacimiento de ChatGPT? Esta revolución destaca por la capacidad que tiene su inteligencia artificial (IA) para escribir textos, contestar a mensajes o redactar.

Aunque si todavía no sabes de qué hablo, ChatGPT es un sistema de chat de OpenAI que cuenta con su propia extensión para navegadores, además, puede conseguir una respuesta instantánea sin tener que recurrir a distintas webs para resolver dudas.

A mediados de diciembre, los servidores de dicha inteligencia artificial (IA) estaban saturados a causa de las demandas por parte de los usuarios, por consiguiente, OpenAI limitó el número de preguntas. En otras situaciones, ChatGPT se coló en las respuestas de Twitter, puso en apuros a Google por su potencial uso en los motores de búsqueda, e incluso actualmente, Microsoft quiere integrar esta tecnología en Bing para atraer a los usuarios.

Cada vez son más los usuarios que explotan las ventajas e inconvenientes que ofrece ChatGPT. Recientemente, un profesor universitario advirtió que uno de sus alumnos utilizó el chatbot para hacer sus tareas académicas, aunque OpenAI creó un detector para introducir una redacción y comprobar el porcentaje de lo que es real y falso.

Muchas personas se preguntan si el boom de ChatGPT podría sustituir a trabajadores por su gran capacidad de mantener conversaciones y realizar tareas relacionadas con el lenguaje, pero, ¿sería posible? La propia IA indica que «es difícil predecir con certeza qué empleos serán sustituidos en el futuro, pero algunos candidatos potenciales podrían ser trabajos repetitivos y de baja cualificación, como cajeros de supermercado, operadores de maquinaria, atención al cliente, etc.».

¿Adiós a determinados puestos de trabajo?

Si queremos evitar que una tecnología innovadora nos arrebate un puesto de trabajo, Paul Barth (responsable global de alfabetización de datos en Qlik) señala que «en un mundo en el que la IA consumible (es decir, aquella que utilizan las personas en su día a día o que está a su alcance) es cada vez más común, aspectos como la alfabetización de datos gozan de gran importancia. En este sentido, la capacidad de superponer la experiencia del mundo real a los insights será más valiosa que nunca y las empresas deberán empoderar a más profesionales especializados para trabajar con la inteligencia artificial y los datos para obtener valor de todo ello».

En el caso de trabajar con la IA, los profesores, periodistas o programadores no se verían afectados porque podrían completarse con el chatbot. Por ejemplo, ChatGPT ayudaría a los maestros a preparar material didáctico, a los periodistas a recopilar y organizar información, y a los programadores a realizar tareas específicas. Unas de las grandes habilidades que tienen los humanos y no la inteligencia artificial son las capacidades de empatizar, investigar, pensar ideas o aportar juicios de valor.

Esta IA podría facilitar el trabajo de varias profesiones en la actualidad y en un futuro. ¿El motivo? Posee una rápida resolución de problemas y una gran capacidad de aprendizaje para las habilidades relacionadas con la ciencia y tecnología, como la biotecnología o el conocimiento de programación.

El ChatGPT de OpenAI plantea la pregunta «¿qué ocurrirá con los seres humanos que escriben para ganarse la vida o trabajan en sectores creativos, si la IA está demostrando que puede hacer lo mismo a un nivel aún más alto?» Respuesta → «El rol de las personas será crítico en lo que respecta a higiene de datos, garantizando la calidad y precisión de la información para reducir sesgos o malentendidos. Además, podrán aportar un contexto matizado de la realidad, cosa que una máquina no puede hacer».

La inteligencia artificial y humana son complementarias

Existen diferencias entre la inteligencia artificial y humana, para empezar, el cerebro trabaja con la información que le rodea con el objetivo de analizarla para tomar decisiones correctas, mientras que la inteligencia artificial imita el comportamiento humano.

Por otro lado, el proceso de aprendizaje de un usuario depende de los problemas, cambios y decisiones; sin embargo, la IA se diseña únicamente para tareas precisas.

Barth añade que Wcon todo ello, podemos afirmar que los humanos desempeñarán un papel fundamental en el éxito de la IA y, por lo tanto, colaborar con esta tecnología les permitirá verlo como una oportunidad de mejora, y no como una amenaza con la que sustituirles. Así, podrán acelerar la creación de contenidos y generar nuevos conceptos a partir de diversas fuentes de datos, siempre y cuando dispongan de las herramientas y de la alfabetización de datos necesarios para ello».

Fuente: www.20minutos.es

Vamos a morir todos

A pesar de los esfuerzos por encontrar la vida eterna mediante el entrenamiento de una IA que simula a fallecidos o los avances en la criogenización, lo cierto es que, por ahora, no existe la posibilidad de burlar a la muerte.

Mat Honan

 

Hola. ¿Qué tal estás? Traigo algunas noticias. Vas a morir. Todos vamos a morir.

No solo he estado pensando en esto mientras preparábamos esta nueva edición dedicada a la mortalidad, sino también porque he llegado a uno de esos hitos arbitrarios de la vida. Cumplo 50 años este mes

Esto es una noticia buena. Es mejor que la alternativa, como suelen decir. Sin embargo, un hecho desagradable de tener casi 50 años es que mi colesterol «malo» o LDL es demasiado alto. La solución obvia es mejorar mi dieta y hacer más ejercicio. No obstante, si eso fuera tan fácil, nadie tendría el colesterol alto, ¿verdad? Otra opción podría ser tomar estatinas o usar medicamentos para reducirlo. Mucha gente lo hace, pero es un tratamiento, no una cura, y los efectos secundarios pueden ser graves.

También podría editar mis genes usando CRISPR, tal y como hizo de manera reciente una persona en Nueva Zelanda, para reducir permanentemente mi LDL. Teniendo en cuenta que las enfermedades del corazón son una de las principales causas de muerte, eso podría alargar mi vida de forma significativa. Sé que todavía queda mucho por aprender sobre la eficacia de dicho tratamiento, pero impresiona la mera posibilidad de que exista.

Hace tan solo unos años, las cosas que podemos hacer hoy en día para alterar nuestro cuerpo sonarían a ciencia ficción. De hecho, algunas todavía suenan a ciencia ficción. El envejecimiento y la muerte siempre han sido nuestros destinos inevitables, certezas de la vida que comienzan cuando nacemos. Sin embargo, ¿y si el envejecimiento no fuese inevitable? ¿Qué pasaría si pudiéramos ralentizar o incluso revertir ese proceso? Estas posibilidades son menos descabelladas de lo que imaginamos.

Una comitiva de multimillonarios y élites de Silicon Valley, incluida la familia real saudita, han invertido asombrosas cantidades de dinero en esta cuestión, financiando start-ups e investigaciones que intentan extender nuestro tiempo en la Tierra. Antonio Regalado contó la historia de la búsqueda del rejuvenecimiento médico: algunos investigadores se encuentran en la búsqueda sobre cómo reprogramar nuestras células para que vuelvan a ser jóvenes y permitirnos llevar una vida más larga y saludable.

Todo esto lleva a la cuestión más intrigante: ¿Podríamos engañar a la muerte y vivir para siempre? Porque podemos hacerlo. O, al menos, nuestras réplicas digitales pueden, como aprendió Charlotte Jee cuando entrenó una inteligencia artificial (IA) para crear simulaciones de sus padres. La tecnología que exploró Jee es una de las muchas destinadas a permitir que los vivos se comuniquen con los muertos, en este caso a través de Alexa de Amazon.

Sin embargo, incluso si logramos vivir para siempre a través de un altavoz inteligente, en estos momentos todavía no hay forma de evitar la muerte. Por supuesto, hay mucha gente trabajando en eso. A lo mejor deseas conservar tu cadáver a -196 °C con la esperanza de que algún día te devuelvan la vida. Para ello, el campo de la criogenia sigue avanzando, a pesar de que se trata de «una aspiración desesperada que revela una ignorancia atroz de la biología», como lo expresa un científico.

Por otro lado, para quienes han aceptado su destino, pero quieren que su muerte ayude a otros a vivir más tiempo, siempre existe la posibilidad de donar el cuerpo a la ciencia. Eso es algo de lo que seguramente habrás oído hablar, pero no se parece en nada a lo que probablemente te has imaginado. Abby Ohlheiser abrió el telón para revelar cómo funciona realmente este proceso tan íntimo.

Fuente: www.technologyreview.es

¿Por qué el Machine Learning es un gran aliado para la ciberseguridad?

Repasamos qué es el Machine Learning, cómo funciona el proceso, tipos de aprendizaje automático y cómo se utiliza en ciberseguridad.

Si bien hemos hablado en varias oportunidades sobre Machine Learning e incluso de nuestro producto Augur, en esta ocasión haremos un pequeño repaso teórico para aquellos que no están  tan familiarizados con esta tecnología.

¿Qué es Machine Learning?

El aprendizaje automático, en inglés Machine Learning (ML), es una rama de la ciencia que permite a las computadoras a través de un conjunto de técnicas realizar tareas sin ser programadas explícitamente. A través del ML los ordenadores pueden generalizar su comportamiento a partir de datos procesados con el objetivo de realizar predicciones sobre datos futuros.

A modo de contexto, el término Machine Learning existe desde hace varias décadas, cuando  Arthur Samuel lo utilizó por primera vez en los laboratorios de IBM en el año 1959 y lo definió como:

“Campo de estudio que le da a las computadoras la capacidad de aprender sin ser programadas explícitamente”

Sin embargo, fue recién en la década de 1980 cuando este concepto tomó más fuerza con la aparición de las redes neuronales artificiales (ANN – Artificial Neural Network) y luego después de otra década se empezó a utilizar por diversos especialistas con el objetivo de resolver algunas problemáticas de la vida diaria.

Similar a lo que ocurrió a principios del 2010 con las tecnologías Cloud cuando muchos consideraban que no iban a tomar fuerza, lo mismo pasó con el ML. Hoy en día esta ciencia es utilizada por diversas empresas: Facebook, Netflix, YouTube, Google o Amazon, por nombrar algunas.

Los sistemas que utilizan Machine Learning más populares son el reconocimiento de voz y el reconocimiento facial, perfilamiento de clientes en marketing, estudios de mercado, y a esto último se le está sumando automatización para IoT, automóviles autónomos, y hasta incluso los famosos robots de ayuda.

Ahora bien, la pregunta central es: ¿qué tipo de necesidades podría satisfacer el Machine Learning en la industria de la ciberseguridad? Para responder esto antes debemos dar un pequeño marco teórico para comprender dónde podríamos aplicar Machine Learning en la ciberseguridad.

¿Cómo se clasifica el ML en general?

A grandes rasgos, lo podemos clasificar como:

Si bien, tal como se observa en la figura anterior, existen varios algoritmos de Machine Learning, en este artículo abordaremos dos para entender cómo podrían ser utilizados en el área de la ciberseguridad:

Aprendizaje supervisado: está enfocado en determinar las probabilidades de nuevos eventos en función de eventos observados anteriormente. Dentro de este algoritmo encontramos otras dos categorías:

  • Clasificación: los algoritmos de clasificación predicen a qué categoría pertenece una entrada en función de las probabilidades aprendidas de las entradas observadas previamente. Por ejemplo: determinar si un archivo es malware o no.
  • Regresión: los modelos de regresión (lineal, logística) predicen un valor de salida para una entrada determinada en función de los valores de salida asociados a las entradas anteriores. Por ejemplo: predecir cuántas muestras de malware se detectarán al próximo mes.

Aprendizaje no supervisado: intentan encontrar patrones no etiquetados. Por ejemplo: determinar cuántas familias de malware existen en el conjunto de datos y qué archivos pertenecen a cada familia. Dentro de este tipo de ML se encuentra el “Clustering”, que consiste en agrupar un conjunto de objetos (cluster) por sus similitudes. Ejemplo: detección de anomalías, o familias de malware.

Etapas del Machine Learning

Aunque no seas experto en este tipo de tecnologías, es importante entender a rasgos generales cómo funciona el proceso general del ML, el cual se divide en las siguientes etapas:

  • Obtención de datos: Cualquiera sea el algoritmo de ML a utilizar, se debe poseer un gran número de datos para entrenar a nuestro modelo. Mayoritariamente los datos provienen de diversas fuentes.
  • Preprocesamiento: muchas veces los datos recolectados son categóricos, por lo que es necesario realizar un preprocesamiento y transformar esos datos en numéricos, ya que los algoritmos de ML trabajan solo con datos numéricos.
  • Extracción de características: se identifican los elementos que deben extraerse y someterse a análisis.
  • Selección de características: se identifican los atributos necesarios para entrenar el modelo de ML.
  • Entrenamiento: se entrena el modelo en base al algoritmo seleccionado de ML. En esta etapa se utiliza una parte de los datos para entrenar el modelo y otra parte para realizar la evaluación del mismo.
  • Testing: es considerado por muchos expertos la etapa más importante, ya que, teniendo el modelo entrenado, se debe validar el modelo. Para esto, los datos que se separaron en la etapa anterior, datos de validación, son utilizados para ejecutar el modelo de ML y evaluar si el modelo ofrece los resultados esperados.
  • Análisis de resultados: en esta etapa se buscan los errores a corregir y ajustar el modelo.

Ya explicado los tipos de ML que existen y sus etapas, procederemos a detallar las áreas en donde se podría utilizar esta tecnología dentro de la ciberseguridad.

Áreas de la ciberseguridad en las que se está aplicando el Machine Learning

En general, los productos de aprendizaje automático se crean para predecir ataques antes de que ocurran, pero dada la naturaleza sofisticada de estos ataques, las medidas preventivas a menudo fallan. En tales casos, el aprendizaje automático ayuda a remediar de otras maneras cómo reconocer el ataque en sus etapas iniciales y evitar que se propague por toda la organización. En la siguiente figura se identifica las necesidades que podría cubrir el ML dentro del campo de la ciberseguridad:

El lado B del Machine Learning

Por ahora solo se hablo de cómo el Machine Learning podría llegar a ser un aliado para el campo de la ciberseguridad, pero no nos debemos olvidar que el ML en la actualidad es utilizado para diversas áreas. Por ejemplo:  reconocimiento facial, en el campo de la genética, compresión de textos, vehículos autónomos y robots, análisis de imágenes, detección de fraudes, predecir tráfico, selección de clientes, posicionamiento en buscadores, reconocimiento de voz, entre otros aplicativos. Sin embargo, todos estos tipos de aplicativos funcionan a partir del procesamiento de enormes cantidades de datos.

La pregunta entonces es: ¿Puede ser un modelo de Machine Learning vulnerado por cibercriminales? La respuesta es: Sí.

Así como se estudia dentro de la ciberseguridad modelos de prevención para distintas tecnologías, actualmente se está empezando a poner foco en la aplicación del ML a estos modelos. Por eso dentro del campo de la ciberseguridad está tomando más relevancia el concepto de Adversarial Machine Learning.

¿Qué es Adversarial Machine Learning?

El término “adversario” se utiliza en el campo de la ciberseguridad para describir al procedimiento mediante el cual se intenta penetrar o corromper una red.

En este caso, los adversarios pueden usar una variedad de métodos de ataque para interrumpir un modelo de aprendizaje automático, ya sea durante la fase de entrenamiento (llamado ataque de “poisoning” o envenenamiento) o después de que el clasificador haya sido entrenado (un ataque de “evasión”).

Conclusiones

En los últimos años el termino de Machine Learning ha tomado más importancia para los sistemas, claro está que es un tipo de tecnología en crecimiento y que tiene muchísimos beneficios para diversos sectores. En cuanto al área de la ciberseguridad, se puede utilizar ML en Threat Intelligence; por ejemplo, en la detección de amenazas, ya que esta área produce un gran volumen de datos en su inicio.

Además, se está buscando incluirlo dentro de las áreas de Threat Hunting y para la clasificación certera de familias de malware.

Sin dudas esta tecnología es un gran aliado para múltiples sectores, pero existe la posibilidad de que estos modelos de inteligencia de datos sean modificados y que esto afecte gravemente el negocio que los está utilizando. En un próximo artículo profundizaremos en lo que respecta la temática de Adversarial Machine Learning.

Fuente: https://www.welivesecurity.com/

Cómo la inteligencia artificial podría destruirnos por accidente

Un experto en inteligencia artificial dice que incluso robots bien intencionados podrían volverse contra nosotros.

Desde Stephen Hawking hasta Elon Musk, algunas de las mentes más importantes del mundo de la inteligencia artificial (IA) han expresado su preocupación de que esta represente una amenaza existencial para nuestra especie.

Pero según un nuevo libro, lo que debe preocuparnos no es que los robots tomen conciencia de sí mismos y se alcen contra sus amos humanos, sino que las máquinas se vuelvan tan buenas en la consecución de los objetivos que les fijamos, que terminemos siendo aniquilados inadvertidamente al establecerles tareas equivocadas.

Stuart Russell, profesor en la Universidad de California en Berkeley, es el autor de Human Compatible: AI and the Problem of Control («Compatible con humanos: la IA y el problema del control») y un experto en los avances que el aprendizaje automático ha hecho posibles.

«El meme de Hollywood siempre consiste en la máquina que espontáneamente toma conciencia de sí misma y luego decide que odia a los seres humanos y quiere matarnos a todos», dijo a la BBC.

Pero los robots no tienen sentimientos humanos, por lo que «es completamente equivocado preocuparse por eso».

Los robots son cada vez mejores en las tareas que les asignamos.

«No es realmente la conciencia maligna, sino su capacidad la que tiene que preocuparnos, solo su capacidad de alcanzar un objetivo mal especificado por nosotros».

«Demasiado competente»

En una entrevista con el programa Today de la BBC, el experto dio un ejemplo hipotético de la amenaza real que, en su opinión, la IA podría representar.

Imagina que tenemos un poderoso sistema de IA que es capaz de controlar el clima del planeta y que queremos usarlo para devolver los niveles de CO2 en nuestra atmósfera a la época preindustrial.

«El sistema descubre que la forma más fácil de hacerlo es deshacerse de todos los seres humanos, porque ellos son los que están produciendo todo este dióxido de carbono en primer lugar», dijo Russell.

«Y podrías decir, bueno, puedes hacer lo que quieras, pero no puedes deshacerte de los seres humanos. Entonces ¿qué hace el sistema? Simplemente nos convence de tener menos hijos hasta que no queden seres humanos».

La victoria del equipo de ajedrez Deep Blue sobre Garry Kasparov fue un hito para el desarrollo de la inteligencia artificial.

El ejemplo sirve para resaltar los riesgos asociados a que la inteligencia artificial actúe bajo instrucciones en las que los humanos no hemos pensado.

Superinteligencia

La mayoría de los sistemas actuales de IA tienen aplicaciones «débiles», diseñadas específicamente para abordar un problema bien especificado en un área, según el Centro para el Estudio del Riesgo Existencial, de la Universidad de Cambridge, en Reino Unido.

Un momento importante para este campo llegó en 1997, cuando la computadora Deep Blue derrotó al campeón mundial de ajedrez, Garry Kasparov, en un torneo de seis partidas.

Pero a pesar de la hazaña, Deep Blue fue diseñado por humanos específicamente para jugar al ajedrez y no podría con un simple juego de damas.

Ese no es el caso de los avances posteriores en inteligencia artificial. El software AlphaGo Zero, por ejemplo, alcanzó un nivel de rendimiento sobrehumano después de solo tres días de jugar Go contra sí mismo.

Usando el aprendizaje profundo, un método de aprendizaje automático que emplea redes neuronales artificiales, AlphaGo Zero requirió mucha menos programación humana y resultó ser un muy buen jugador de Go, ajedrez y shōgi.

Fue completamente autodidacta, de una manera, tal vez, alarmante.

Russell dice que los humanos necesitamos recuperar el control de la IA antes de que sea demasiado tarde.

«A medida que un sistema de inteligencia artificial se vuelva más poderoso y más general, podría volverse súper inteligente, superior al rendimiento humano en muchos o casi todos los dominios«, dice el Centro de Riesgo Existencial.

Y es por eso que, según Russell, los humanos necesitamos retomar el control.

«No sabemos lo que queremos»

Según Russell, dar a la inteligencia artificial objetivos más definidos no es la solución para este dilema, porque los humanos mismos no estamos seguros de cuáles son esas metas.

«No sabemos que algo no nos gusta hasta que sucede», dice.

«Deberíamos cambiar toda la base sobre la cual construimos sistemas de IA», dice, alejándose de la noción de dar a los robots objetivos fijos.

«En cambio, el sistema tiene que saber que desconoce cuál es el objetivo».

«Y una vez que tienes sistemas que funcionan de esa manera, realmente serán diferentes a los seres humanos. Comenzarán a pedir permiso antes de hacer las cosas, porque no estarán seguros de si eso es lo que quieres».

En «2001: Odisea en el espacio» (1968), una computadora altamente capaz se rebela contra los planes para apagarla.

En especial, dice el profesor Russell, estarían «felices de que los apaguen porque querrán evitar hacer cosas que no te vayan a gustar».

El genio de la lámpara

«La forma en que construimos la IA es un poco como la forma en que pensamos en un genio dentro de una lámpara. Si frotas la lámpara, sale el genio y dices: ‘Me gustaría que esto sucediera'», dijo Russell.

«Y, si el sistema de IA es lo suficientemente potente, hará exactamente lo que pides y obtendrás exactamente lo que pides».

«Ahora, el problema con los genios en las lámparas es que el tercer deseo es siempre: ‘Por favor, deshaga los dos primeros deseos porque no pudimos especificar los objetivos correctamente».

«Entonces, una máquina que persigue un objetivo que no es el correcto se convierte, en efecto, en un enemigo de la raza humana, un enemigo que es mucho más poderoso que nosotros».

Fuente: www.muylinux.com