Desarrollan software que escribiría noticias automáticamente

El centro de investigación OpenAI decidió no lanzarlo al público por el momento, pues afirma que hay muchas formas de utilizarlo "con fines perversos".

Sigue a El Espectador en Discover: los temas que te gustan, directo y al instante.
AFP.
16 de febrero de 2019 - 01:15 a. m.
Los investigadores señalaron que hay muchas formas de utilizar el programa con fines perversos, entre ellos hacerse pasar por otros en internet.  / Getty Images.
Los investigadores señalaron que hay muchas formas de utilizar el programa con fines perversos, entre ellos hacerse pasar por otros en internet. / Getty Images.
Resume e infórmame rápido

Escucha este artículo

Audio generado con IA de Google

0:00

/

0:00

Un grupo de investigadores reveló esta semana que desarrolló un generador de texto automático utilizando inteligencia artificial con muy buenos resultados, pero que decidió no darlo a conocer por el momento por el peligro de que sea utilizado con fines maliciosos.

El software desarrollado por OpenAI podría ser usado para escribir noticias, reseñas de productos y otro tipo de textos que podrían ser más realistas que cualquiera otro producido antes por una computadora.

Lea también: Salvador Dalí vuelve a la vida gracias a la inteligencia artificial

OpenAI, un centro de investigación que es financiado por Tesla, Amazon y Microsoft, dijo que el nuevo software "logra un rendimiento de avanzada" en varios tipos de textos, como resúmenes o traducciones.

De todas formas, el centro indicó que no lanzará el programa al público. "No publicaremos el modelo entrenado debido a nuestra preocupación sobre la utilización maliciosa de la tecnología", señalaron los investigadores de OpenAI en una publicación de blog del jueves.

La novedad podría representar un hito en los intentos por desarrollar textos generados por computadoras que puedan ser creíbles, que a la vez son potencialmente peligrosos.

Los investigadores señalaron que hay muchas formas de utilizar el programa con fines perversos, entre ellos la generación de artículos de "fake news" (noticias falsas), hacerse pasar por otros en internet o para producir contenido falso en las redes sociales.

En un ejemplo se introdujo en el programa un párrafo en el que hablaba de "una manada de unicornios que vive en un remoto e inexplorado valle en los Andes" y escribió una noticia de 300 palabras sobre ello.

"El público en general deberá volverse más escéptico de los textos que encuentra online, como el fenómeno de los 'deepfakes' pide ser más escéptico sobre las imágenes", escribieron los investigadores, que se referían así a los videos manipulados por inteligencia artificial que han ido emergiendo en el último tiempo.

Le puede interesar: Ojo con los videos "deepfake", una nueva amenaza para la desinformación

Además indicaron que su modelo, llamado GPT-2, "supera otros modelos de lenguaje" entrenados en tareas como entradas en Wikipedia, noticias o libros sin necesidad de un entrenamiento específico.

Por AFP.

Temas recomendados:

 

Sin comentarios aún. Suscríbete e inicia la conversación
Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta  política.