La inteligencia artificial es uno de los campos más prometedores en la industria y la economía. A pesar de su rápida evolución en los últimos años, su estado permite la realización de algunas tareas fácilmente definibles de una forma segura y rápida, pero todavía hay un gran paso que dar para que la inteligencia artificial se asemeje a la inteligencia humana en la resolución de cuestiones que requieran iniciativa, creatividad o intuición. Este tipo de inteligencia artificial avanzada se denomina la inteligencia artificial general (AGI), o también «IA fuerte», del inglés “strong AI”.
El cine y la literatura se han adelantado en el planteamiento de los problemas éticos que supone la convivencia entre humanos y máquinas inteligentes, pero la comunidad científica y la sociedad ya se plantean también cuestiones sobre los límites a imponer a las decisiones tomadas por máquinas, la responsabilidad o moralidad de los actos realizados por robots u otros sistemas «inteligentes» y muchas otras cuestiones derivadas del impacto que la tecnología de la inteligencia artificial puede causar en nuestra sociedad, desde la posible pérdida de empleos o si la singularidad tecnológica podría dar lugar a la extinción de la raza humana, sustituida por sus creaciones mecánicas en el momento en que estás, capaces de mejorarse por si mismas de forma recursiva, decidieran que el género humano es una imperfección del universo completamente prescindible.
Este concepto de singularidad tecnológica puede resultar sorprendente, más propio de una novela de ciencia ficción, y sin embargo es seriamente considerado por la comunidad científica y tecnológica.
El matemático Stuart Armstrong, investigador en el Future of Humanity Institute (FHI) de la Universidad de Oxford, hizo un estudio sobre las predicciones de los expertos sobre el crecimiento de la inteligencia artificial general (AGI) y se encontró un amplio margen de fechas con la media en el año 2040. Analizando el nivel de incertidumbre de estas estimaciones Armstrong afirmó en 2012, que su estimación en ese momento, con un 80% de probabilidad de certeza, sobre que el momento en que se producirá la singularidad tecnológica estaba entre cinco y cien años (o sea, entre 2017 y 2117).
Más allá de estas previsiones catastrofistas, el desarrollo de la inteligencia artificial necesita una regulación que permita a la industria aprovechar sus capacidades, sin entrar en conflicto con la estructura social y jurídica de nuestra sociedad y sin causar un cataclismo económico en lugar de suponer un impulso al progreso de la humanidad.
En este sentido el Parlamento Europeo ha debatido la legislación que considera necesaria para que la Comunidad Europea no quede relegada es esta revolución tecnológica y recientemente ha aprobado una disposición en la que se pide a la Comisión que se establezcan normas comunes en toda Europa. Estas normas deben incluir estándares éticos, el marco legal de funcionamiento como por ejemplo, la necesidad de contar con un seguro obligatorio para los automóviles sin conductor o la compensación a las víctimas de accidentes en los que estén implicados este u otro tipo de robots.
Con un planteamiento completamente innovador, los eurodiputados también han planteado la creación -eso si, a largo plazo- de una personalidad jurídica específica para los robots, que serian sujetos de derechos y obligaciones.
Articulo publicado inicialmente en Revista de Aeronáutica y Astronáutica Núm 861 correspondiente a marzo de 2017
NOTA: A partir de esta entrada inicio la publicación de los artículos que publico y he publicado en Revista de Aeronáutica y Astronáutica, aunque probablemente no lo haré en orden, ni aparecerán aquí todos. Revista de Aeronáutica y Astronáutica puede leerse en formato PDF de forma gratuita en la red. Se inicia aquí también la categoría «RAA» del blog.