Inteligencia Artificial

Eliezer Yudkowsky dice que "todos en la Tierra podrían morir" a causa de la Inteligencia Artificial (IA)

Eliezer Yudkowsky, experto en la Inteligencia Artificial (IA), también cree que el desarrollo de estas tecnologías debería pausarse. Sin embargo, comenta que la reciente carta firmada por mil 600 expertos, entre ellos Elon Musk y Steve Wozniak, subestima la "gravedad de la situación".
martes, 11 de abril de 2023 · 17:36

Eliezer Yudkowsky, pionero y experto en Inteligencia Artificial (IA), también cree que el desarrollo de estas tecnologías debería pausarse, tal y como lo sugieren en una reciente carta firmada por Elon Musk, Steve Wozniak y otras personalidades del gremio sobre los potenciales peligros de estas tecnologías para la humanidad. Yudkowsky comenta que el escrito realmente subestima la "gravedad de la situación" y los innovadores tecnológicos deberían hacer algo más que una "pausa" inmediata de seis meses.

Según un reciente artículo de opinión en la revista Time, el también teórico del Instituto de Investigación de Inteligencia Artificial argumenta: "Los sistemas de IA potentes deberían desarrollarse sólo cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables", dice Yudkowsky. "La cuestión clave no es la inteligencia 'humana-competitiva' (como dice la carta abierta), sino lo que ocurre después de que la IA llegue a ser más inteligente que la inteligencia humana". 

La carta abierta esta firmada por más de mil 600 personas y en ella se le pide a los gobiernos detener el desarrollo de cualquier sistema de IA que sea más potente que el sistema de Chat GPT-4. 

"Muchos investigadores expertos en estos temas, entre los que me incluyo, creen que el resultado más probable de construir una inteligencia artificial sobrehumana, en circunstancias remotamente parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra", afirma Yudkowsky. "No en el sentido de 'tal vez alguna remota posibilidad', sino en el sentido de 'eso es lo obvio que ocurriría'".

Yudkowsky sugiere que las Inteligencias Artificiales podrían ser lo suficientemente capaces de sobrepasar la comprensión humana, por lo que podrían minimizar nuestras propias capacidades . 

"Visualice toda una civilización alienígena, pensando a velocidades millones de veces superiores a las humanas, confinada inicialmente a los ordenadores, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas", escribe. 

También comenta que seis meses no es el tiempo suficiente para elaborar un plan sobre cómo hacer frente al avance de las Inteligencias Artificiales

"Han tenido que pasar más de 60 años desde que se propuso y estudió por primera vez la noción de Inteligencia Artificial hasta que hemos alcanzado las capacidades actuales", explica. "Resolver la seguridad de la inteligencia sobrehumana, no la seguridad perfecta, la seguridad en el sentido de 'no matar literalmente a todo el mundo', podría llevar muy razonablemente al menos la mitad de ese tiempo".

La solución de Yudkowsky para esta situación es "apagarlo todo", incluyendo los "grandes clusters de GPU (grandes granjas de ordenadores utilizadas para el desarrollo de las Inteligencias Artificiales). 

"Pongan un límite a la potencia de cálculo que cualquiera puede utilizar para entrenar un sistema de IA, y redúzcanlo en los próximos años para compensar los algoritmos de entrenamiento más eficientes. Sin excepciones para gobiernos y ejércitos", comenta. 

Por el contrario, Steve Jobs, el empresario multimillonario y co-creador de Microsoft, dice que las Inteligencias Artificiales son tan revolucionarias como los teléfonos móviles o el Internet, según declara en un artículo publicado en su blog oficial. 

Elon Musk, actual CEO de Twitter, rebate la postura de Jobs y dice que además de ser "muy optimista" sobre el desarrollo de estas tecnologías, su comprensión sobre las Inteligencias Artificiales "es limitada. Todavía lo es".