Noticias

Últimas Noticias

    Política

    Judicial

      Economía

      Mundo

      Bogotá

        Entretenimiento

        Deportes

        Colombia

        El Magazín Cultural

        Salud

          Ambiente

          Investigación

            Educación

              Ciencia

                Género y Diversidad

                Tecnología

                Actualidad

                  Reportajes

                    Historias visuales

                      Colecciones

                        Podcast

                          Opinión

                          Opinión

                            Editorial

                              Columnistas

                                Caricaturistas

                                  Lectores

                                  Blogs

                                    Suscriptores

                                    Recomendado

                                      Contenido exclusivo

                                        Tus artículos guardados

                                          Somos El Espectador

                                            Estilo de vida

                                            La Red Zoocial

                                            Gastronomía y Recetas

                                              La Huerta

                                                Moda e Industria

                                                  Tarot de Mavé

                                                    Autos

                                                      Juegos

                                                        Pasatiempos

                                                          Horóscopo

                                                            Música

                                                              Turismo

                                                                Marcas EE

                                                                Colombia + 20

                                                                BIBO

                                                                  Responsabilidad Social

                                                                  Justicia Inclusiva

                                                                    Desaparecidos

                                                                      EE Play

                                                                      EE play

                                                                        En Vivo

                                                                          La Pulla

                                                                            Documentales

                                                                              Opinión

                                                                                Las igualadas

                                                                                  Redacción al Desnudo

                                                                                    Colombia +20

                                                                                      Destacados

                                                                                        BIBO

                                                                                          La Red Zoocial

                                                                                            ZonaZ

                                                                                              Centro de Ayuda

                                                                                                Newsletters
                                                                                                Servicios

                                                                                                Servicios

                                                                                                  Empleos

                                                                                                    Descuentos

                                                                                                      Idiomas

                                                                                                      Cursos y programas

                                                                                                        Más

                                                                                                        Cromos

                                                                                                          Vea

                                                                                                            Blogs

                                                                                                              Especiales

                                                                                                                Descarga la App

                                                                                                                  Edición Impresa

                                                                                                                    Suscripción

                                                                                                                      Eventos

                                                                                                                        Pauta con nosotros

                                                                                                                          Avisos judiciales

                                                                                                                            Preguntas Frecuentes

                                                                                                                              Contenido Patrocinado
                                                                                                                              06 de septiembre de 2017 - 07:47 p. m.

                                                                                                                              ¿Cómo regular la inteligencia artificial?

                                                                                                                              Expertos aseguran que si no se reglamenta el uso de esta tecnología se pueden ensanchar las brechas sociales y afectar duramente el empleo a nivel global, entre otros factores.

                                                                                                                              Oren Etzioni - The New York Times

                                                                                                                              Elon Musk, fundador de Tesla, es una de las voces que ha pedido regular el desarrollo de inteligencia artificial. / Bloomberg
                                                                                                                              Foto: Bloomberg - Susana Gonzalez

                                                                                                                              Hace poco, el empresario de la tecnología Elon Musk solicitó a los gobernadores estadounidenses reglamentar la inteligencia artificial “antes de que sea demasiado tarde”. Musk insiste en que la inteligencia artificial (IA) representa una “amenaza existencial contra la humanidad”, una visión fatalista que confunde la ciencia de la inteligencia artificial con la ciencia ficción. No obstante, incluso los investigadores de IA como yo reconocemos que hay algunas inquietudes válidas acerca de su impacto en temas de armas, empleo y privacidad.

                                                                                                                              Es natural cuestionarse si siquiera deberíamos desarrollar la inteligencia artificial. Yo creo que la respuesta es sí.

                                                                                                                              Aunque, ¿no deberíamos tomar medidas para al menos desacelerar el progreso de la IA por precaución? El problema es que si lo hacemos, países como China seguirán. El barco de la inteligencia artificial ya zarpó y lo mejor que podemos hacer ahora es navegarlo. (Lea "La inteligencia artificial debe diseñarse para el bien de la humanidad")

                                                                                                                              Read more!

                                                                                                                              La IA no debe utilizarse como arma y cualquier sistema que la incluya debe tener un “interruptor de apagado” inviolable. Más allá de eso, debemos regular el impacto tangible de los sistemas con inteligencia artificial (por ejemplo, la seguridad de los vehículos autónomos), en lugar de intentar definir y tomar riendas del amorfo campo de la IA cuando aún está en desarrollo.

                                                                                                                              Propongo que los sistemas de inteligencia artificial se apeguen a tres reglas inspiradas en las “tres leyes de la robótica” que el escritor Isaac Asimov presentó en 1942, y que se agreguen algunas más: un robot no debe dañar a un ser humano, ni permitir, por omisión, daño alguno a un humano; un robot debe obedecer las órdenes dadas por los seres humanos, con excepción de aquellas que entren en conflicto con la primera ley, y un robot debe proteger su propia existencia, siempre y cuando dicha protección no entre en conflicto con las dos primeras leyes. (Lea "Elon Musk vs Mark Zuckerberg: una pelea por el futuro de la inteligencia artificial")

                                                                                                                              Estas tres leyes son sofisticadas pero ambiguas: cuando hablamos de inteligencia artificial, exactamente ¿qué significa “daño”?

                                                                                                                              Decir ‘no fui yo, fue mi sistema de inteligencia artificial’ no debería exculpar a alguien de actos ilícitos.

                                                                                                                              Propongo aquí un fundamento más sólido, con base en tres reglas de mi autoría, para evitar que la inteligencia artificial haga daño.

                                                                                                                              En primer lugar, un sistema con inteligencia artificial debe someterse al amplio espectro de leyes a las que se somete su operador humano. No queremos que la IA participe en actos de ciberacoso ni en el manejo de acciones bursátiles ni en amenazas terroristas; tampoco queremos que el FBI utilice sistemas con inteligencia artificial que engañen a las personas para que cometan delitos. No queremos vehículos autónomos que no respeten los semáforos o, peor aún, armas con inteligencia artificial que violen tratados internacionales.

                                                                                                                              Read more!

                                                                                                                              Los códigos penales deben ser modificados de modo que no podamos argumentar que nuestro sistema de IA hizo algo que no pudimos comprender o anticipar. En resumen, decir “no fui yo, fue mi sistema de inteligencia artificial” no debería exculpar a alguien de actos ilícitos.

                                                                                                                              No ad for you

                                                                                                                              Mi segunda regla dicta que un sistema de IA debe exponer con claridad que no es humano. Tal como hemos visto en el caso de los robots (programas computacionales que pueden sostener conversaciones cada vez más complejas con personas reales), la sociedad necesita la garantía de que los sistemas con inteligencia artificial tengan una etiqueta que los identifique.

                                                                                                                              En 2016, un robot conocido como Jill Watson fue utilizado como asistente académico para un curso en línea en Georgia Tech; este engañó a los estudiantes y les hizo creer que era humano. De acuerdo con investigadores en la Universidad de Oxford, un ejemplo más serio es el amplio uso en redes sociales de los bots políticos en favor de Trump durante los días que precedieron a las elecciones del 2016.

                                                                                                                              No ad for you

                                                                                                                              La sociedad necesita la garantía de que los sistemas con inteligencia artificial tengan una etiqueta que los identifique.

                                                                                                                              Mi regla garantizaría que las personas sepan cuando un robot intenta suplantar a alguien. Ya hemos visto, por ejemplo, la cuenta humorística @DeepDrumpf, un robot que se hace pasar por Donald Trump en Twitter.

                                                                                                                              No ad for you

                                                                                                                              Los sistemas de inteligencia artificial no solo crean tuits falsos, sino también videos con noticias falsas. Investigadores de la Universidad de Washington publicaron hace poco un video falso del expresidente Barack Obama en el que este parecía estar pronunciando, de manera muy convincente, palabras que se habían insertado en el video, aun cuando él en realidad hablaba de un tema completamente distinto.

                                                                                                                              Mi tercera regla consiste en que un sistema de IA no puede guardar ni difundir información confidencial sin la aprobación explícita de la fuente. Dada su extraordinaria capacidad para obtener información, registrarla y analizarla, los sistemas de inteligencia artificial están en posición de extraer información confidencial.

                                                                                                                              No ad for you

                                                                                                                              Pensemos en todas las conversaciones que ha escuchado Amazon Echo, una “bocina inteligente” que existe en una gran cantidad de hogares; o la información que tu hija podría revelarle de manera involuntaria a un juguete como una Barbie con IA. Incluso los aparentemente inofensivos robots de limpieza pueden crear mapas de tu hogar. Debes tener el poder de controlar toda esa información. (Lea "Cuando la inteligencia artificial aprende de sus propios errores")

                                                                                                                              Creo que mis tres reglas son sólidas, pero les falta mucho para estar completas. Las presento en este artículo como punto de partida de la discusión. Estés o no de acuerdo con la visión de Musk acerca del progreso de la IA y de su impacto en la humanidad (yo no lo estoy), es evidente que la inteligencia artificial está en camino. La sociedad debe prepararse.

                                                                                                                              *Oren Etzioni es director del Instituto Allen para la Inteligencia Artificial.

                                                                                                                              No ad for you

                                                                                                                              2017 New York Times News Service

                                                                                                                              Elon Musk, fundador de Tesla, es una de las voces que ha pedido regular el desarrollo de inteligencia artificial. / Bloomberg
                                                                                                                              Foto: Bloomberg - Susana Gonzalez

                                                                                                                              Hace poco, el empresario de la tecnología Elon Musk solicitó a los gobernadores estadounidenses reglamentar la inteligencia artificial “antes de que sea demasiado tarde”. Musk insiste en que la inteligencia artificial (IA) representa una “amenaza existencial contra la humanidad”, una visión fatalista que confunde la ciencia de la inteligencia artificial con la ciencia ficción. No obstante, incluso los investigadores de IA como yo reconocemos que hay algunas inquietudes válidas acerca de su impacto en temas de armas, empleo y privacidad.

                                                                                                                              Es natural cuestionarse si siquiera deberíamos desarrollar la inteligencia artificial. Yo creo que la respuesta es sí.

                                                                                                                              Aunque, ¿no deberíamos tomar medidas para al menos desacelerar el progreso de la IA por precaución? El problema es que si lo hacemos, países como China seguirán. El barco de la inteligencia artificial ya zarpó y lo mejor que podemos hacer ahora es navegarlo. (Lea "La inteligencia artificial debe diseñarse para el bien de la humanidad")

                                                                                                                              Read more!

                                                                                                                              La IA no debe utilizarse como arma y cualquier sistema que la incluya debe tener un “interruptor de apagado” inviolable. Más allá de eso, debemos regular el impacto tangible de los sistemas con inteligencia artificial (por ejemplo, la seguridad de los vehículos autónomos), en lugar de intentar definir y tomar riendas del amorfo campo de la IA cuando aún está en desarrollo.

                                                                                                                              Propongo que los sistemas de inteligencia artificial se apeguen a tres reglas inspiradas en las “tres leyes de la robótica” que el escritor Isaac Asimov presentó en 1942, y que se agreguen algunas más: un robot no debe dañar a un ser humano, ni permitir, por omisión, daño alguno a un humano; un robot debe obedecer las órdenes dadas por los seres humanos, con excepción de aquellas que entren en conflicto con la primera ley, y un robot debe proteger su propia existencia, siempre y cuando dicha protección no entre en conflicto con las dos primeras leyes. (Lea "Elon Musk vs Mark Zuckerberg: una pelea por el futuro de la inteligencia artificial")

                                                                                                                              Estas tres leyes son sofisticadas pero ambiguas: cuando hablamos de inteligencia artificial, exactamente ¿qué significa “daño”?

                                                                                                                              Decir ‘no fui yo, fue mi sistema de inteligencia artificial’ no debería exculpar a alguien de actos ilícitos.

                                                                                                                              Propongo aquí un fundamento más sólido, con base en tres reglas de mi autoría, para evitar que la inteligencia artificial haga daño.

                                                                                                                              En primer lugar, un sistema con inteligencia artificial debe someterse al amplio espectro de leyes a las que se somete su operador humano. No queremos que la IA participe en actos de ciberacoso ni en el manejo de acciones bursátiles ni en amenazas terroristas; tampoco queremos que el FBI utilice sistemas con inteligencia artificial que engañen a las personas para que cometan delitos. No queremos vehículos autónomos que no respeten los semáforos o, peor aún, armas con inteligencia artificial que violen tratados internacionales.

                                                                                                                              Read more!

                                                                                                                              Los códigos penales deben ser modificados de modo que no podamos argumentar que nuestro sistema de IA hizo algo que no pudimos comprender o anticipar. En resumen, decir “no fui yo, fue mi sistema de inteligencia artificial” no debería exculpar a alguien de actos ilícitos.

                                                                                                                              No ad for you

                                                                                                                              Mi segunda regla dicta que un sistema de IA debe exponer con claridad que no es humano. Tal como hemos visto en el caso de los robots (programas computacionales que pueden sostener conversaciones cada vez más complejas con personas reales), la sociedad necesita la garantía de que los sistemas con inteligencia artificial tengan una etiqueta que los identifique.

                                                                                                                              En 2016, un robot conocido como Jill Watson fue utilizado como asistente académico para un curso en línea en Georgia Tech; este engañó a los estudiantes y les hizo creer que era humano. De acuerdo con investigadores en la Universidad de Oxford, un ejemplo más serio es el amplio uso en redes sociales de los bots políticos en favor de Trump durante los días que precedieron a las elecciones del 2016.

                                                                                                                              No ad for you

                                                                                                                              La sociedad necesita la garantía de que los sistemas con inteligencia artificial tengan una etiqueta que los identifique.

                                                                                                                              Mi regla garantizaría que las personas sepan cuando un robot intenta suplantar a alguien. Ya hemos visto, por ejemplo, la cuenta humorística @DeepDrumpf, un robot que se hace pasar por Donald Trump en Twitter.

                                                                                                                              No ad for you

                                                                                                                              Los sistemas de inteligencia artificial no solo crean tuits falsos, sino también videos con noticias falsas. Investigadores de la Universidad de Washington publicaron hace poco un video falso del expresidente Barack Obama en el que este parecía estar pronunciando, de manera muy convincente, palabras que se habían insertado en el video, aun cuando él en realidad hablaba de un tema completamente distinto.

                                                                                                                              Mi tercera regla consiste en que un sistema de IA no puede guardar ni difundir información confidencial sin la aprobación explícita de la fuente. Dada su extraordinaria capacidad para obtener información, registrarla y analizarla, los sistemas de inteligencia artificial están en posición de extraer información confidencial.

                                                                                                                              No ad for you

                                                                                                                              Pensemos en todas las conversaciones que ha escuchado Amazon Echo, una “bocina inteligente” que existe en una gran cantidad de hogares; o la información que tu hija podría revelarle de manera involuntaria a un juguete como una Barbie con IA. Incluso los aparentemente inofensivos robots de limpieza pueden crear mapas de tu hogar. Debes tener el poder de controlar toda esa información. (Lea "Cuando la inteligencia artificial aprende de sus propios errores")

                                                                                                                              Creo que mis tres reglas son sólidas, pero les falta mucho para estar completas. Las presento en este artículo como punto de partida de la discusión. Estés o no de acuerdo con la visión de Musk acerca del progreso de la IA y de su impacto en la humanidad (yo no lo estoy), es evidente que la inteligencia artificial está en camino. La sociedad debe prepararse.

                                                                                                                              *Oren Etzioni es director del Instituto Allen para la Inteligencia Artificial.

                                                                                                                              No ad for you

                                                                                                                              2017 New York Times News Service

                                                                                                                              Por Oren Etzioni - The New York Times

                                                                                                                              Ver todas las noticias
                                                                                                                              Read more!
                                                                                                                              Read more!
                                                                                                                              Este portal es propiedad de Comunican S.A. y utiliza cookies. Si continúas navegando, consideramos que aceptas su uso, de acuerdo con esta política.
                                                                                                                              Aceptar