MEN IN BLACK .- Elon Musk y Stephen Hawking , junto con cientos de investigadores de inteligencia artificial y expertos, estĆ”n pidiendo una prohibición mundial de las llamadas armas autónomas, advirtiendo que podrĆan desencadenar una revolución en armamento comparable a la pólvora y las armas nucleares.
En una carta revelado como investigadores se reunieron en la Conferencia Internacional Conjunta sobre Inteligencia Artificial en Buenos Aires el lunes, los firmantes argumentaron que el despliegue de robots capaces de matar, mientras que sin ataduras a los operadores humanos es "factible dentro de años, no décadas." Si el desarrollo es No cortar, es sólo una cuestión de tiempo antes de que las armas terminen en manos de los terroristas y los señores de la guerra, dijeron.
Debemos temer mƔs probable equipos que hacen una cosa "a un mal grado", dijo Max Tegmark, profesor en el MIT Blog Bits: La Amenaza real Planteada por potentes ordenadores 11 de julio 2015
Un concurso de robótica tiene como objetivo proporcionar una verificación de la realidad en la subida de las mÔquinas como éste de Relax, el Terminator estÔ lejos 25 de mayo 2015
Un prototipo de largo alcance misiles anti-buque, lanzada por un bombardero B-1, estƔ diseƱado para maniobrar sin control humano. Bombas temiendo que puede escoger quiƩn to Kill Noviembre 11, 2014
A diferencia de los zĆ”nganos, que requieren una persona para pilotar la nave de forma remota y toman decisiones dirigidas, las armas autónomas podrĆan buscar y atacar objetivos por su cuenta. A diferencia de las armas nucleares, que podrĆan ser hechos con materias primas que todos los poderes militares significativas podĆan pagar y obtener, haciĆ©ndolos mĆ”s fĆ”ciles de producir en masa, los autores argumentaron.
Las armas podrĆan reducir las bajas militares manteniendo soldados humanos fuera de los campos de batalla, pero tambiĆ©n podrĆan reducir el umbral para ir a la batalla, dice la carta. "Si alguna potencia militar sigue adelante con el desarrollo de armas de AI, una carrera mundial de armas es prĆ”cticamente inevitable, y el punto final de esta trayectoria tecnológica es obvia: las armas autónomas se convertirĆ”n en los Kalashnikovs de maƱana", dijo.
Sr. Musk, el jefe de SpaceX, ha elevado las advertencias sobre la inteligencia artificial antes, llamando probablemente de la humanidad " mayor amenaza existencial ". El Sr. Hawking, el fĆsico, ha escrito que, si bien el desarrollo de la inteligencia artificial podrĆa ser el evento mĆ”s grande en la historia humana "Por desgracia, podrĆa ser tambiĆ©n el Ćŗltimo."
La carta dijo que la inteligencia artificial "tiene un gran potencial para beneficiar a la humanidad de muchas maneras." Los defensores han predicho aplicaciones en la lucha contra la enfermedad, la mitigación de la pobreza y la realización de rescates. Una asociación con armamento, sin embargo, podrĆa desencadenar una reacción violenta que cercena su avance, dijeron los autores.
Otros firmantes notables a la carta incluida Steve Wozniak, el co-fundador de Apple; Noam Chomsky, lingüista y filósofo polĆtico; y Demis Hassabis, el jefe ejecutivo de la compaƱĆa de inteligencia artificial Google DeepMind.

Trends is an amazing magazine Blogger theme that is easy to customize and change to fit your needs.
No hay comentarios.
Publicar un comentario