Lunes 25 de Enero de 2021

Hoy es Lunes 25 de Enero de 2021 y son las 15:12 AM 1500 - Radio Nuclear desde la ciudad de Zarate - Provincia de Buenos Aires - Desde el 14 de Abril de 1973 llevando información y uniendo a toda la zona norte a través de una frecuencia

TECNOLOGÍA

14 de enero de 2021

Inteligencia Artificial

Investigadores utilizaron una serie de cálculos para mantener bajo control una máquina de Inteligencia Artificial, pero los resultados no fueron buenos.

¿La Humanidad en peligro?

La Inteligencia Artificial (IA) ha crecido exponencialmente en los últimos años. Ha permitido crear robots capaces de encargarse de las tareas domésticas, autos autónomos o 'softwares' que han logrado esclarecer misterios para la ciencia. Pero en el último tiempo los científicos advierten sobre sus “peligros”.   Un grupo internacional de investigadores utilizó una serie de cálculos teóricos para explorar las posibilidades de mantener bajo control a una IA superinteligente. Como resultado, los académicos concluyeron que sería prácticamente imposible controlar este tipo de tecnología.   "Una máquina superinteligente que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron, situación que podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad", comentó Manuel Cebrián, coautor de la publicación.   Durante el estudio, publicado recientemente en Journal of Artificial Intelligence Research, los científicos probaron dos ideas para mantener a una IA superinteligente bajo control. Una de ellas fue aislarla de Internet y de otros dispositivos para limitar su contacto con el mundo exterior, lo que reduciría significativamente su capacidad de responder a las tareas para las que fue diseñada.   Asimismo, el equipo "concibió un algoritmo de contención teórico que asegura que una IA superinteligente no pueda dañar a las personas bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndola si se considera dañina". No obstante, un análisis sobre el actual paradigma de computación mostró que tal algoritmo no puede ser construido.   "Si descomponemos el problema en reglas básicas de informática teórica, resulta que un algoritmo que ordenara a una IA no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable", concluyó Iyad Rahwan, otro de los autores del estudio.

COMPARTIR:

Notas Relacionadas

TECNOLOGÍA
CES 2021
TECNOLOGÍA
WhatsApp

Comentarios

Escribir un comentario »

Aun no hay comentarios, sé el primero en escribir uno!