Publicado: 18 junio 2023 21:33 CEST
En los últimos meses, la inteligencia artificial (IA) ha entrado en la conversación mundial a raíz de la adopción generalizada de herramientas de IA generativa –como los chatbots y los programas de generación automática de imágenes– y la consiguiente preocupación suscitada en relación con los hipotéticos riesgos existenciales que plantea.
Habiendo trabajado en IA durante décadas, este aumento de popularidad y el sensacionalismo que le ha seguido nos han pillado por sorpresa. Últimamente no es raro leer titulares como: ¿Puede la inteligencia artificial acabar con la civilización humana? La percepción pública en este asunto parece desproporcionadamente dominada por el miedo a amenazas totalmente especulativas.
Como miembros del Laboratorio Europeo para el Aprendizaje y los Sistemas Inteligentes (ELLIS), una organización de investigación centrada en el aprendizaje automático, creemos que nos corresponde poner estos riesgos en perspectiva, especialmente en el contexto de las organizaciones gubernamentales que contemplan acciones reguladoras con aportaciones de las empresas tecnológicas.
La IA es una disciplina dentro de la informática o la ingeniería que tomó forma en la década de 1950. Aspira a construir sistemas computacionales inteligentes que emulen la inteligencia humana, ya de por sí diversa y compleja.
Los sistemas de IA suelen dividirse en tres niveles de competencia:
La IA general o fuerte, que muestra un nivel de inteligencia similar al de los seres humanos, incluida la capacidad de comprender, aprender y aplicar conocimientos en una amplia gama de tareas. Incorpora conceptos como la conciencia. La IA general es en gran medida hipotética y no se ha logrado hasta la fecha.