El Observatorio Geopolítico de los Conflictos con sede en Rosario Argentina
subscribe y lanza una campaña de adhesión a la Carta Abierta de Científicos del campo de la Inteligencia Artificial (IA) y Robótica, que publicamos a continuación. La finalidad es crear un
movimiento de opinión pública a nivel
internacional para que se prohiba la producción y uso de Armas Autónomas, de robots killer (robots asesinos),
programados para identificar y matar al objetivo sin ser guiados por seres humanos.
Se calcula que podrán estar en el mercado en pocos años. Su bajo costo y
peligrosidad harán de estas armas unas de las más letales. Podrán ser
utilizadas por Estados o simplemente cualquier grupo alzado en armas, abriendo
así un escenario aún más deshumanizante de los conflictos que se multiplican en
el planeta y cuyas víctimas son sobre todo civiles.
Hasta ahora han firmado más de 2800 científicos del área de la Inteligencia
Artificial y más de 16.000 personas de otras áreas. Entre los mundialmente conocidos
se encuentran Stephen Hawkins y Noam Chomsky.
Participa y difundes entre tus amigos, conocidos y colegas. NO A LAS ARMAS AUTÓNOMAS
Esta carta abierta fue anunciada en la apertura de la conferencia IJCAI-15 en Buenos Aires, el 28 de julio de 2015. Quienes deseen ver el comunicado de prensa pueden ponerse en contacto con Toby Walsh. La recepción, verificación de la firma y gestión de la lista son realizadas por FLI; para cuestiones administrativas acerca de esta carta, por favor póngase en contacto con tegmark@mit.edu
Armas Autónomas: Carta abierta de Científicos e Investigadores de la IA (Inteligencia Artificial) y Robótica
Armas Autónomas: Carta abierta de Científicos e Investigadores de la IA (Inteligencia Artificial) y Robótica
Las
Armas Autónomas seleccionan y atacan objetivos sin intervención humana. Esta
definición podría incluir, por ejemplo, quadcopters armados que pueden buscar y
eliminar personas con criterios predefinidos, pero no incluyen misiles crucero
o aviones no tripulados a control remoto (drones) para los cuales son seres
humanos quienes definen los objetivos. La tecnología de Inteligencia Artificial (IA)
ha alcanzado un punto en el que el despliegue de este tipo de sistemas es factible para los próximos años, ya no es
cuestión de décadas, y las expectativas son altas: las Armas Autónomas se han
descrito como la tercera revolución en la guerra, después de la pólvora y las armas
nucleares.
Mucho
se ha argumentado a favor y en contra de
las Armas Autónomas. Un argumento a
favor es que la sustitución de
soldados por máquinas produciría una merma sustancial en las bajas
humanas. Su contrario manifiesta que el
umbral para iniciar un conflicto armado se vería reducido. La pregunta
clave para la humanidad hoy es si deseamos iniciar una carrera mundial de armas
IA o si deseamos evitar que ésta se lleve a cabo. Si alguna potencia
militar sigue adelante con el desarrollo de armas IA, una carrera armamentista
IA mundial es prácticamente inevitable, y el punto final de esta trayectoria
tecnológica es obvia: las Armas Autónomas se convertirán en los Kalashnikovs
del mañana. A diferencia de las armas nucleares, no requieren costosos o
difíciles procesos de obtención de materias primas, por lo que su producción en
masa se convertirá en algo masivo y
barato para las potencias militares significativas. Sólo será cuestión de
tiempo hasta que aparezcan en el mercado negro y en las manos de los
terroristas, de dictadores que deseen controlar mejor a su población, de señores
de la guerra que deseen perpetrar su limpieza étnica, etc. Las Armas Autónomas
son ideales para tareas tales como asesinar, desestabilizar naciones, dividir
poblaciones y matar selectivamente grupos étnicos en particular. Por ello
creemos que una carrera de armas militares IA sería altamente negativa para la
humanidad. Habría muchas formas en que la IA podría hacer de los campos de batalla lugares
más seguros para los humanos, especialmente para los civiles, sin que
esto signifique crear nuevas herramientas para matar gente.
Así
como la mayoría de químicos y biólogos no tienen ningún interés en construir
armamentos químicos o biológicos, la mayoría de los investigadores de la IA no
tienen ningún interés en construir armamento
IA, y no quieren que otros lo hagan empañando así su campo. El desarrollo de
tecnología en Armas Autónomas podría
generar reacciones públicas negativas contra la IA, cercenando los futuros
beneficios que ésta podría dar a la humanidad. De hecho, químicos y
biólogos en general han apoyado acuerdos internacionales que con éxito han
prohibido el desarrollo de armas químicas y biológicas, al igual que la mayoría
de los físicos han respaldado los tratados que prohíben el desarrollo de armas
nucleares en bases espaciales y el desarrollo de armas láser cegadoras.
En
resumen, creemos que la IA tiene un gran potencial para beneficiar a la
humanidad de muchas maneras, y que la meta en el campo de la IA debería ser
esa, hacerlo. Iniciar una carrera armamentista de tecnología IA es una pésima
idea, y debe ser impedida mediante una prohibición de armamento ofensivo autónomo más
allá del control humano.
Para suscribir la carta abierta ingresa al siguiente link:
http://futureoflife.org/AI/open_letter_autonomous_weapons#signatories
No hay comentarios:
Publicar un comentario