/ sábado 17 de marzo de 2018

Mal uso de Inteligencia artificial podría facilitar ataques terroristas

Se podría reforzar la cibercriminalidad, usar drones o robots con fines terroristas y facilitaría la manipulación de las elecciones mediante cuentas automatizadas

París, Francia. Expertos internacionales alertaron en un informe publicado sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de "Estados corruptos, de criminales o de terroristas" en un futuro cercano.

Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas. Podría también facilitar la manipulación de elecciones a través de las redes sociales mediante cuentas automatizadas (bots).

Este extenso informe de 100 páginas fue redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Estos expertos piden a los gobiernos y a los diferentes actores de este campo que pongan en pie mecanismos para limitar las posibles amenazas relacionadas con la inteligencia artificial.

"Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir", advierten.

Para ilustrar sus temores, estos especialistas mencionan "escenarios hipotéticos de usos malintencionado de la IA".

Explican por ejemplo que terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones. Los autores imaginan también casos de robots de limpieza traficados que se colarían entre otros robots encargados por ejemplo de la limpieza de un ministerio. Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estallar, detallan.

Videos falsos

Por otra parte, Seán Ó hÉigeartaigh, uno de los autores del estudio, explica que "la cibercriminalidad, en fuerte alza, podría consolidarse con herramientas facilitadas por la inteligencia artificial". Por ejemplo, los ataques denominados de spear phishing (ataques dirigidos a una organización o empresa para robar por ejemplo información confidencial) podrían ser más fáciles de llevar a cabo a una escala mayor.

Pero para él, "el riesgo más grande, aunque es menos probable, es el riesgo político". "Ya hemos visto cómo algunas personas están usando la tecnología para tratar de interferir en elecciones", apunta.

Con la IA sería posible, por ejemplo, realizar videos falsos pero muy realistas que podrían ser utilizados para desacreditar a responsables políticos, afirman los expertos.

Múltiples advertencias

No es la primera vez que expertos lanzan una señal de alarma sobre la IA. En 2014, el astrofísico Stephen Hawking advirtió sobre los riesgos que la inteligencia artificial podría hacer correr a la humanidad si supera la inteligencia humana. El empresario Elon Musk y otros también han multiplicado las advertencias.

También se han publicado informes sobre el uso de drones asesinos o sobre la manera en la que la IA podría afectar a la seguridad de países como Estados Unidos.

Este nuevo documento aporta "un panorama general sobre la manera en la que la IA crea nuevas amenazas o cambia la naturaleza de las amenazas existentes en campos como la seguridad digital, física o política", explica Seán Ó hÉigeartaigh.

La inteligencia artificial, que apareció en los años 1950, se basa en algoritmos sofisticados que permiten resolver problemas que los humanos resuelven utilizando sus capacidades cognitivas.

En los últimos años se han hecho progresos enormes en los campos relacionados con la percepción, el reconocimiento de voz y el análisis de imágenes.

terrorismo

París, Francia. Expertos internacionales alertaron en un informe publicado sobre los riesgos de un uso malintencionado de la inteligencia artificial por parte de "Estados corruptos, de criminales o de terroristas" en un futuro cercano.

Según ellos, en la próxima década, la eficacia creciente de la inteligencia artificial (IA) podría reforzar la cibercriminalidad y conducir al uso de drones o robots con fines terroristas. Podría también facilitar la manipulación de elecciones a través de las redes sociales mediante cuentas automatizadas (bots).

Este extenso informe de 100 páginas fue redactado por 26 expertos especialistas en IA, ciberseguridad y robótica de prestigiosas universidades (Cambridge, Oxford, Yale, Stanford) y organismos no gubernamentales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Estos expertos piden a los gobiernos y a los diferentes actores de este campo que pongan en pie mecanismos para limitar las posibles amenazas relacionadas con la inteligencia artificial.

"Creemos que los ataques que serían posibles por el uso creciente de la IA serán particularmente efectivos, finamente dirigidos y difíciles de atribuir", advierten.

Para ilustrar sus temores, estos especialistas mencionan "escenarios hipotéticos de usos malintencionado de la IA".

Explican por ejemplo que terroristas podrían alterar los sistemas de IA disponibles en los comercios (drones o vehículos autónomos) para causar accidentes o explosiones. Los autores imaginan también casos de robots de limpieza traficados que se colarían entre otros robots encargados por ejemplo de la limpieza de un ministerio. Un día, el intruso podría atacar tras localizar visualmente al ministro. Se acercaría a él y se haría estallar, detallan.

Videos falsos

Por otra parte, Seán Ó hÉigeartaigh, uno de los autores del estudio, explica que "la cibercriminalidad, en fuerte alza, podría consolidarse con herramientas facilitadas por la inteligencia artificial". Por ejemplo, los ataques denominados de spear phishing (ataques dirigidos a una organización o empresa para robar por ejemplo información confidencial) podrían ser más fáciles de llevar a cabo a una escala mayor.

Pero para él, "el riesgo más grande, aunque es menos probable, es el riesgo político". "Ya hemos visto cómo algunas personas están usando la tecnología para tratar de interferir en elecciones", apunta.

Con la IA sería posible, por ejemplo, realizar videos falsos pero muy realistas que podrían ser utilizados para desacreditar a responsables políticos, afirman los expertos.

Múltiples advertencias

No es la primera vez que expertos lanzan una señal de alarma sobre la IA. En 2014, el astrofísico Stephen Hawking advirtió sobre los riesgos que la inteligencia artificial podría hacer correr a la humanidad si supera la inteligencia humana. El empresario Elon Musk y otros también han multiplicado las advertencias.

También se han publicado informes sobre el uso de drones asesinos o sobre la manera en la que la IA podría afectar a la seguridad de países como Estados Unidos.

Este nuevo documento aporta "un panorama general sobre la manera en la que la IA crea nuevas amenazas o cambia la naturaleza de las amenazas existentes en campos como la seguridad digital, física o política", explica Seán Ó hÉigeartaigh.

La inteligencia artificial, que apareció en los años 1950, se basa en algoritmos sofisticados que permiten resolver problemas que los humanos resuelven utilizando sus capacidades cognitivas.

En los últimos años se han hecho progresos enormes en los campos relacionados con la percepción, el reconocimiento de voz y el análisis de imágenes.

terrorismo

Seguridad

Espacios culturales refuerzan medidas contra la inseguridad

Artistas y promotores tratan de mantener los espacios escénicos lejos de la delincuencia; implementan protocolos a favor de la seguridad de artistas y público

Seguridad

Atacan a balazos unidad del transporte público en Anenecuilco

Una mujer resultó herida y tuvo que ser trasladada al hospital para su atención médica; el chofer de la ruta presentó un rozón de bala

Seguridad

Elecciones 2024: Incrementó hasta cuatro veces la instalación de espectaculares

La mayoría de las estrcuturas de publicidad y propaganda no tienen los dictámenes correspondientes de Protección Civil

Local

Suspensión de clases en Morelos: Docentes exigen mejores servicios de salud

Docentes en Morelos protestan por servicios médicos inadecuados del ISSSTE; clases suspendidas

Local

Estudiantes del CBTA de Temoac ganan concurso de robótica

Los estudiantes del CBTA 39 de Temoac lograron medallas de oro, plata y bronce

Doble Vía

Regar cultivos por la noche, la propuesta para cuidar el agua en Cuautla

La propuesta está pensada para aprovechar mejor el agua en las noches y que la humedad en la tierra permanezca más tiempo