Inteligencia Artificial

Expertos comparan el riesgo del desarrollo de las Inteligencias Artificiales con pandemias y guerras nucleares

El Centro para la Seguridad de la IA publicó una nueva declaración para exponer sobre los peligros del desarrollo no regulatorio de las 'Inteligencias Artificiales'.
martes, 30 de mayo de 2023 · 16:04

Líderes y altos mandos de la industria tecnológica, entre ellos ejecutivos de Microsoft y Google, lanzaron un nuevo escrito sobre los peligros que conlleva el desarrollo de la Inteligencia Artificial para la humanidad

"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear", afirmaron en la declaración.

La preocupación sobre los avances de este tipo de tecnologías comenzó a ser cuestionada desde la revelación de sus altas capacidades de generación o creación de todo tipo de contenido e información. Desde texto e imágenes, hasta programación y creación automática. 

Aunque muchos desarrolladores han elogiado los avances de estas inteligencias artificiales, tales como el creador de Microsoft, Bill Gates, otros han puesto en tela de juicio sus capacidades y los beneficios que estas puedan traer al desarrollo del ser humano. 

Sam Altman, consejero delegado de OpenAI y fabricante de ChatGPT, junto con Geoffrey Hinton, informático conocido como el padrino de la inteligencia artificial y profesor emérito de ciencias de la computación en la Universidad de Toronto, figuran entre los cientos de personalidades que firmaron dicha declaración, publicada en el sitio web del Centro para la Seguridad de la IA.

Al igual que otros desarrolladores o relacionados de la industria, la preocupación por el nivel de inteligencia o poder de las inteligencias artificiales sobre los del ser humano se intensificaron desde el auge de la nueva generación de 'chatbots' de IA, tales como Chat GPT. Esto también motivó la formulación de regulaciones a nivel mundial, así como de la Unión Europea, quien ya abrió el camino con Ley de Inteligencia Artificial y cuya aprobación está prevista para finales de este año.

"Hay una gran variedad de personas de las mejores universidades de distintos campos que están preocupadas por esto y creen que es una prioridad mundial", dijo Dan Hendrycks, director ejecutivo del Centro para la Seguridad de la IA. "Así que tuvimos que conseguir que la gente saliera del armario, por así decirlo, en este tema porque muchos estaban como hablando en silencio entre ellos".

Anteriormente, más de mil tecnólogos y empresario, entre ellos Elon Musk (Twitter, Space X, Neuralik, Tesla) y Steve Wozniak (co fundador de Skype), Yuval Noah Hariri (cofundador de Apple), entre muchos otros, pidieron la abrupta pausa del desarrollo de IA por medio año, puesto que "ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable", según su comunicado. 

Dicha carta era una respuesta a la publicación del nuevo modelo de IA por parte de OpenAI, llamada Chat GPT-4 a través de Bing y Microsoft. La empresa, ni su rival Google, firmaron la petición y rechazaron el llamamiento a la pausa voluntaria. Google más tarde publicó su propio modelo llamado Bard IA

Sin embargo, la última declaración del Centro para la Seguridad de la IA estuvo respaldada por los directores de tecnología y ciencia de Microsoft, Demis Hassabis, director general de DeepMind, el laboratorio de investigación de IA de Google, y dos ejecutivos de Google que dirigen su política de IA.

Algunos expertos justifican este intento de mitigar el desarrollo de las inteligencias artificiales para prever sobre los posibles daños, mismos que quizá ni si quiera se tengan en consideración. Incluso hay quienes lo compararon con los científicos nucleares de los años 30 que advertían a la gente, aunque "aún no hubieran desarrollado de la bomba". 

"Nadie está diciendo que el GPT-4 o el ChatGPT causen hoy este tipo de preocupaciones", dijo Hendrycks. "Estamos intentando abordar estos riesgos antes de que ocurran en lugar de intentar abordar las catástrofes a posteriori".

David Krueger, catedrático adjunto de Informática de la Universidad de Cambridge, explicó que los científicos desarrolladores no pretenden que las IA "tengan conciencia o que hagan algo mágico", pero advirtió que no necesitan ser conscientes de sus capacidades para provocar algún daño significativo

"No soy partidario de un tipo concreto de riesgo. Creo que hay muchas formas de que las cosas vayan mal", afirmó Krueger. "Pero creo que el más controvertido históricamente es el riesgo de extinción, concretamente por sistemas de IA que se descontrolan".

Con información de AP