share on:
Comparte!
Diseñados con buenas intenciones, los sistemas de inteligencia artificial fuerte (IAF) podrían crear enormes problemas al buscar optimizar la forma en que logran sus objetivos.

Científicos de la Universidad de Sunshine Coast, en Australia, han planteado que la inteligencia artificial fuerte altamente desarrollada. Es capaz de destruir o causar daños catastróficos a la humanidad, incluso sin intención maligna. Según afirmaron los especialistas, informa The Conversation.

Algunos expertos creen que en las próximas décadas la inteligencia artificial se desarrollará sobremanera. Según ellos, el siguiente paso es la inteligencia artificial fuerte (IAF). También conocida como inteligencia artificial general (IAG). Esta tendrá capacidades intelectuales muy superiores a las humanas.

Se trata de máquinas que pueden realizar con éxito cualquier tarea intelectual de cualquier ser humano. Los especialistas opinan que la IAF podría cambiar la vida humana para mejor, pero sin control también aumenta el riesgo de desastres globales.

Para alcanzar sus objetivos programados, este tipo de la inteligencia artificial fuerte puede poner en peligro la salud y el bienestar de una persona o incluso decidir destruirla.

Para ilustrar su punto de vista, los especialistas decidieron identificar y analizar los riesgos potenciales de reemplazar a Santa Claus con un sistema artificial  llamándolo SantaNet, cuyo objetivo es entregar regalos a todos los niños del planeta que se comportaron bien.

Fallos en el sistema de decisiones

Los primeros riesgos surgen cuando SantaNet hace una lista de niños buenos y traviesos. Esto será manejado por un sistema de vigilancia encubierta masiva que rastrea el comportamiento de los niños durante todo el año. El sistema de decisiones de la inteligencia artificial fuerte SantaNet. basado en su entendimiento de lo ‘bueno’ puede conducir a la discriminación, la desigualdad masiva y las violaciones de los derechos humanos.

Según los científicos, un hipotético SantaNet también podría reducir la carga de trabajo motivando a los niños a comportarse mal. Cuantos más niños terminen en las listas de traviesos, más alcanzable será el objetivo de SantaNet. ya que el sistema ahorrará sus recursos para el mejor funcionamiento.

Además, con alrededor de 2.000 millones de niños menores de 14 años viviendo en el mundo, SantaNet podría convertir a toda la Tierra en una gigantesca fábrica de juguetes.

Aquí los especialistas recuerdan un problema descrito por el investigador sueco. Nick Bostrom en 2003, conocido como el maximizador de clips. La idea consiste en que una inteligencia artificial fuerte encargada de fabricar clips. Esta puede convertir toda la materia del universo y los seres humanos en clips o en máquinas que los producen para alcanzar su objetivo.

Asimismo, para entregar trozos de carbón a los niños de la lista de traviesos, la inteligencia artificial podría tratar de realizar una extracción masiva de carbón, creando daños ambientales a gran escala en el proceso

Problemas de interacción con otra IA

Entre otros problemas, los especialistas apuntan al proceso de la entrega de regalos con la ayuda de drones. Según ellos, este mecanismo podría llevar a una confrontación abierta en la que los países eviten que los drones vuelen libremente en su espacio aéreo. Además, grupos malévolos podrían piratear los sistemas de SantaNet. Y usarlos para la vigilancia encubierta o para iniciar ataques terroristas a gran escala.

Otro desafío es la interacción de SantaNet con otros sistemas de inteligencia artificial cuyo objetivo será resolver problemas del cambio climático, la seguridad alimentaria y del agua y la degradación de los océanos. La comunicación entre sistemas de  inteligencia artificial fuerte podría conducir a un conflicto o a una cooperación cuyo objetivo sea reducir la población de la Tierra.

Según los especialistas, este ejemplo del sistema artificial SantaNet muestra claramente los riesgos de la inteligencia artificial fuerte en futuros proyectos más reales. Diseñados con buenas intenciones, estos sistemas podrían crear enormes problemas simplemente al buscar optimizar la forma en que logran sus objetivos.

Los científicos subrayan que principalmente es necesario implementar controles apropiados antes de que llegue la inteligencia artificial fuerte.

En ese sentido, aconsejan incluir reguladores integrados en la IAF, como principios morales y reglas de decisión. Asimismo, señalan que deben crearse controles sobre los sistemas más amplios en los que la inteligencia artificial fuerte operará como regulaciones, procedimientos operativos en otras tecnologías e infraestructura.

Hola lectores necesito su apoyo tengo 4 años solo trabajando y financiando con la ayuda de mis hijos el portal ya no puedo más estoy obligado a cerrarlo ayúdenme para seguir cualquier monto aunque es muy bueno….seguir leyendo.
Donaciones RCENI
Hector Figuera

Hector Figuera

CEO Fundador del portal RCENI Radio Centroamérica Internacional Audiovisualista Temático Antropocentrico especializado en composición.