¿Cuál es la probabilidad de que la inteligencia artificial nos lleve a la extinción, como si fuera una película de ciencia-ficción?
Aunque parezca un escenario distópico, es una preocupación real entre muchos expertos en IA. Algunos de los nombres más importantes en el campo han dado estimaciones alarmantemente altas sobre el potencial de una catástrofe provocada por IA. ¿Estamos jugando con fuego al desarrollar esta tecnología? Y, en caso afirmativo, ¿cómo podemos mitigar estos riesgos?
El último en poner esto encima de la mesa de forma rotunda ha sido Roman Yampolskiy, un científico especializado en seguridad de IA y director del Laboratorio de Seguridad Cibernética en la Universidad de Louisville.
Yampolskiy, quien ha mostrado sus preocupaciones en el influyente podcast de Lex Fridman, cree que es prácticamente inevitable que la IA cause la extinción de la humanidad, estimando esta probabilidad en un 99,999999%.
Según él, “deberíamos abandonar el desarrollo de la tecnología ahora porque sería casi imposible controlar la IA una vez que se vuelva más avanzada”.
Por suerte, la postura de Yampolskiy no es la única y existen otras posturas más optimistas.
Yann LeCun, uno de los “tres padrinos de la IA” y actual empleado de Meta, ofrece una perspectiva tranquilizadora. Según él, la probabilidad de que la IA cause la extinción de la humanidad es menor al 0,01%, comparándola con la improbabilidad de que un asteroide impacte y destruya la Tierra.
Esta visión contrasta fuertemente con las opiniones de otros expertos, pero proporciona un contrapunto interesante en el debate sobre la IA y su impacto futuro.
Por otro lado, Geoff Hinton y Yoshua Bengio, también reconocidos como los padrinos de la IA, ofrecen una perspectiva mucho menos optimista.
Hinton (quien dejó Google por no estar de acuerdo en su acercamiento a esta tecnología) estima que hay un 10% de probabilidad de que la IA nos elimine en los próximos 20 años, mientras que Bengio eleva esta cifra al 20%. Estas cifras, aunque alarmantes, reflejan una preocupación creciente en la comunidad científica sobre el rápido avance de la inteligencia artificial y los riesgos potenciales que podría acarrear.
Elon Musk, conocido por sus opiniones francas sobre la tecnología y su impacto en la humanidad, también ha expresado su preocupación. En un seminario reciente, Musk declaró: “Creo que hay alguna posibilidad de que termine con la humanidad. Probablemente esté de acuerdo con Geoff Hinton en que es alrededor del 10% o 20% o algo así”.
Sin embargo, Musk también ve un lado positivo, afirmando que “el probable escenario positivo supera al negativo”. Aun así, su preocupación es suficiente para sugerir que se tomen medidas preventivas.
La principal preocupación entre los expertos es la capacidad de controlar una IA avanzada.
Yampolskiy argumenta que “si [Musk] está preocupado por los competidores que lleguen primero, no importa, ya que una superinteligencia descontrolada es igualmente mala, sin importar quién la haga existir”. Esta declaración resalta la importancia de establecer regulaciones y controles estrictos antes de que la IA alcance un punto de no retorno.
El debate sobre la probabilidad de una catástrofe causada por la IA está lejos de resolverse, pero las opiniones varían desde el optimismo hasta el alarmismo extremo.
Mientras que algunos creen que los beneficios potenciales de la IA superan los riesgos, otros insisten en la necesidad de una regulación estricta para evitar una posible extinción de la humanidad. En última instancia, la pregunta sigue siendo: ¿Estamos preparados para manejar el poder de la inteligencia artificial, o estamos jugando con fuego?