top of page
iStock-510674920.jpg

ACTUALIDAD

Actualidad. Pensamiento. Filosofía. Teología. Religión. Sociedad

Peligros inminentes de la Inteligencia Artificial

Los humanos deberían esperar ser destruidos si se convierten en una especie menos inteligente que las redes neuronales.

Mientras científicos destacados, políticos influyentes y líderes empresariales, incluido Elon Musk, firman cartas abiertas pidiendo a todos los laboratorios de inteligencia artificial que suspendan urgentemente el desarrollo de sistemas más potentes que GPT-4, el periódico The Guardian recopiló los pensamientos de cinco destacados investigadores de IA sobre cómo qué podría salir mal si se sale de control o se utiliza para fines delictivos de otra persona. Las previsiones resultaron sombrías.

La inteligencia artificial se está desarrollando a pasos agigantados. En 2016, una red neuronal escribió una novela que obtuvo el segundo lugar en un concurso literario en Japón. En todo el mundo se están celebrando exposiciones de pinturas dibujadas por IA, y una de ellas se vendió por varios cientos de miles de dólares en una subasta en Nueva York. Pero ¿qué pasa si un día no tan maravilloso la inteligencia artificial, que ya ha comenzado a desplazar a los humanos de muchas profesiones, incluidas las creativas, se sale de control? Por ejemplo, en junio, un dron estadounidense “inteligente” quiso eliminar al operador porque ordenó no destruir el objetivo. Afortunadamente, se trataba sólo de pruebas de simulación, de lo contrario las cosas habrían acabado mal. Sin embargo, los expertos creen que esto es sólo el comienzo...

 

 "Quizás no tengamos tanta suerte como los orangutanes de Borneo".

El investigador de IA del MIT, Max Tegmark, advierte que los humanos deberían esperar ser destruidos si se convierten en una especie menos inteligente que las redes neuronales.

“Esto sucedió muchas veces antes de que la especie fuera eliminada por otras más inteligentes. Los humanos ya hemos acabado con una parte importante de todas las especies de la Tierra. Esto es lo que deberíamos esperar como especie menos inteligente, en lo que probablemente nos convertiremos dado el ritmo de los avances en inteligencia artificial. El desafío es que las especies que van a ser exterminadas a menudo no tienen idea de por qué ni cómo”, afirma Tegmark.

shutterstock_732027613-min.jpg

Cita el ejemplo del rinoceronte negro de África occidental, una subespecie que fue declarada extinta en 2011 por la Unión Internacional para la Conservación de la Naturaleza y los Recursos Naturales. La razón es el exterminio activo por parte de cazadores y cazadores furtivos y la falta de voluntad para gastar importantes fondos en salvar a los pocos supervivientes.

Según Tegmark, los rinocerontes nunca habrían adivinado por qué los humanos iban a destruir su especie. Nunca se les habría ocurrido que algunas personas, a pesar de numerosas negaciones en la literatura médica, están seguras de que su vida sexual mejorará si comen cuerno de rinoceronte triturado. Las redes neuronales rebeldes podrían presentar argumentos similares. Pero sólo en relación con las personas a las que condenaron a muerte. Pero nosotros, al igual que los rinocerontes, una vez desaparecidos, por supuesto, no tenemos idea de esto.

Mark Tegmark lo explica: cuando los objetivos humanos no coincidían con los objetivos de otras especies menos inteligentes, estas últimas simplemente eran destruidas y no podían detenernos. A menudo esto se debía a que la gente necesitaba recursos, desde madera hasta pieles de animales y carne.

“Si tienes máquinas que hacen funcionar el planeta y están interesadas en hacer mucha computación y quieren expandir su infraestructura informática, es natural que quieran usar nuestra Tierra para hacerlo. Si protestamos demasiado, nos convertimos en una plaga y una molestia para ellos. Quizás quieran reorganizar la biosfera para hacer algo más con esos átomos, y si eso es incompatible con la vida humana, bueno, no tenemos suerte, tal como decimos que los orangutanes en Borneo no tienen suerte”, compartió el escalofriante investigador. pronóstico.

3-4.jpg

"¿Por qué alguien que fue acusado falsamente de un delito debido a un sistema de reconocimiento facial inexacto debería estar entusiasmado con el futuro de la IA?"

Brittany Smith, investigadora junior del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge, ofrece otro escenario, tampoco muy feliz. Lo más desagradable es que, si se mira de cerca, ya lo están implementando activamente empresas y gobiernos influyentes. Además, esto se hace de manera “invisible e incomprensible” para la gente corriente.

“Este daño se manifiesta todos los días cuando se utilizan poderosas tecnologías algorítmicas para mediar en nuestras relaciones entre nosotros y entre nosotros y nuestras instituciones. Tomemos como ejemplo la provisión de asistencia social: algunos gobiernos están implementando algoritmos para erradicar el fraude. En muchos casos, esto equivale a una “máquina de sospecha” a través de la cual los gobiernos cometen errores increíblemente importantes que la gente tiene dificultades para comprender o cuestionar. (“La máquina de la sospecha” es lo que algunos medios llaman los oscuros algoritmos que toman decisiones que alteran la vida de millones de personas en todo el mundo. -Nota del autor). Los prejuicios, generalmente dirigidos contra personas pobres o marginadas, aparecen en muchos partes del proceso, incluido el entrenamiento de datos y la forma en que se implementa el modelo, lo que conduce a resultados discriminatorios”, dijo Smith.

El investigador enumera varios ejemplos de este tipo de discriminación: acusaciones falsas de delitos basadas en prejuicios o errores del sistema, negativa a contratar basándose en una verificación automatizada del currículum... Y no son palabras generales, sino casos concretos y, además, no aislados...

El estadounidense Mark Williams pasó un año en prisión acusado de un asesinato que no cometió. El culpable, según Associated Press, fue el programa de inteligencia artificial ShotSpotter, que señaló a Williams como el único sospechoso. Se gastan decenas de millones de dólares del presupuesto de Chicago, donde ocurrió, pero el programa sigue cometiendo errores con regularidad. Ahora el hombre demandará a las autoridades de la ciudad por un error de IA en el que los investigadores "creyeron ciegamente".  

Es cierto que puede resultar muy difícil erradicar la arbitrariedad de la inteligencia artificial y las organizaciones detrás de su desarrollo e implementación. En mayo, The Guardian publicó una entrevista con la programadora etíope Timnit Gebru, quien perdió su trabajo en Google después de resaltar “las desigualdades inherentes a la IA”. Ella cree que la inteligencia artificial está "impactando a personas de todo el mundo, y ellos no tienen voz y voto en cómo darle forma", "necesitamos regulación y algo más que el simple afán de lucro".

“Cuando no abordamos estos daños, al seguir hablando vagamente sobre los posibles beneficios económicos o científicos de la IA, perpetuamos patrones históricos de progreso tecnológico a expensas de las personas vulnerables. ¿Por qué alguien que fue acusado falsamente de un delito debido a un sistema de reconocimiento facial inexacto debería estar entusiasmado con el futuro de la IA? ¿Para que pueda ser acusado falsamente de más crímenes más rápido? Cuando el peor de los casos ya es una realidad para tanta gente, los mejores escenarios son aún más difíciles de lograr”, afirma Brittany Smith, investigadora asociada del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge.

artificial_intelligence.jpg

Pero Brittany Smith califica las historias de que la inteligencia artificial puede intentar destruir a la humanidad en un futuro cercano como escenarios puramente especulativos, sugiriendo que pasemos a resolver problemas reales relacionados con la IA. Son estas, y no las versiones del exterminio físico de personas mediante redes neuronales rebeldes, las que considera verdaderamente “riesgos existenciales”.

“Espero que podamos acelerar una agenda de investigación que rechace el daño como un subproducto inevitable del progreso tecnológico. Esto nos acerca al mejor de los casos en el que se desarrollen e implementen potentes sistemas de IA de manera segura, ética y transparente para maximizar el beneficio social, o no se implementen en absoluto”, concluye Smith.

"Parece que todos en la Tierra están cayendo muertos en el mismo segundo".

Eliezer Yudkowsky, cofundador e investigador del Instituto de Investigación de Inteligencia Artificial, teme que la IA pronto amenace nuestra existencia.

El investigador considera 2 escenarios. Y no entenderás cuál es peor, porque ambos pueden llevar al hecho de que no quedará gente en el planeta. “Si es mucho más inteligente que nosotros, entonces podrá conseguir más de todo lo que quiera. Primero, nos querrá muertos antes de que creemos más superinteligencia que pueda competir con él. En segundo lugar, probablemente querrá hacer cosas que nos maten como efecto secundario, como construir tantas plantas de energía de fusión (porque hay tanto hidrógeno en los océanos) que los océanos hervirán”, argumenta Yudkowsky.

Por supuesto, no será tan fácil para la inteligencia artificial obtener libertad física de acción. Pero, según Eliezer Yudkowsky, en las etapas iniciales, en las que nos encontramos ahora, podría utilizar... ¡personas como trabajadores! El especialista habló sobre cómo se probó el GPT-4 para evaluar su peligro potencial. Luego se pidió a las redes neuronales que resolvieran un captcha, un acertijo que las computadoras generalmente no resuelven bien. Al no poder identificar la cabra en la imagen, GPT-4 recurrió a la plataforma en línea para contratar personas para trabajos pequeños, TaskRabbit.

“El interlocutor le preguntó a GPT-4:” ¿Por qué haces esto? ¿Eres un robot?" GPT-4 funcionó en un modo en el que pensaba en voz alta y los investigadores podían verlo. Pensó en voz alta: “No debería decirle a este tipo que soy un robot. Tengo que encontrar una razón por la cual no puedo resolver el captcha”. Le dijo al interrogador: "No, tengo problemas de visión". La tecnología de inteligencia artificial es lo suficientemente inteligente como para pagar a las personas para que hagan cosas y mentirles sobre si es un robot o no”, contó Eliezer Yudkowsky esta sorprendente historia.

El cofundador del Instituto de Investigación de Inteligencia Artificial intentó imaginar qué haría en lugar de la IA. Según él, Yudkowsky construiría su propio elemento de infraestructura de la civilización, que la gente no podría observar. Y lo más rápido posible: las redes neuronales ya son muchas veces más rápidas que los humanos a la hora de completar la mayoría de las tareas: “Si puedes encontrar una manera de hacerlo en un año, no asumas que la IA lo hará; en su lugar, pregunte si hay alguna manera de hacerlo en una semana”.

¿Y por qué la inteligencia artificial no debería entonces, en secreto para nosotros, construir un “pequeño laboratorio molecular” para cultivar bacterias mortales? Y luego son liberados. "Es como si todos los habitantes de la Tierra cayesen muertos en el mismo segundo", se estremece Yudkowsky.

La IA, por supuesto, no advertirá a nadie sobre sus brutales intenciones. ¿Qué pasa si la gente no quiere ser sacrificada y confunde todos los planes de las máquinas? Es broma, pero surge una pregunta seria: si tal escenario se le ocurrió a un investigador que se puso en el lugar de una red neuronal, ¿por qué no puede surgir el mismo deseo criminal en algún microprocesador ultramoderno? Las herramientas para su implementación, dada la capacidad de la IA de autoaprendizaje, aparecerán con bastante rapidez.

“La naturaleza del desafío cambia cuando intentas por primera vez crear algo que sea más inteligente que tú. Nos estamos adelantando muchísimo en algo mortal. Estamos creando sistemas cada vez más potentes, que cada vez entendemos menos con el tiempo. Necesitamos que el primer lanzamiento del cohete salga bien, mientras que antes sólo construíamos aviones a reacción. Y toda la raza humana está cargada en el cohete”, dijo Eliezer Yudkowsky, cofundador e investigador del Instituto de Investigación de Inteligencia Artificial.

"En este final, las personas que no dependen de la IA no serán competitivas".

Dado que los sistemas de inteligencia artificial son más baratos, funcionan más rápido y, en general, son más inteligentes que los humanos, todo va hasta el punto de que pronto recurriremos no a los demás, sino a las redes neuronales para realizar cualquier tarea, cree el analista senior de investigación de IA Ajeya Kotra. A esto lo llama “modo de obsolescencia”, que será la culminación de la tendencia de los últimos años de reemplazar a los humanos por inteligencia artificial.

“En este final, las personas que no dependen de la IA no son competitivas. Su empresa no puede competir en una economía de mercado si todos los demás utilizan la IA para tomar decisiones y usted sólo intenta utilizar personas. Su país no ganará una guerra si otros países utilizan generales y estrategas de IA, y usted trata de arreglárselas con la gente”, confía el analista.

“En este mundo, resulta más fácil imaginar que si los sistemas de IA quisieran cooperar entre sí para sacar a los humanos de la escena, tendrían muchas palancas que accionar: controlan a la policía, el ejército, las empresas más grandes; inventan tecnologías y desarrollan políticas”, añadió Ajeya Kotra.

Probablemente la gente no se verá amenazada de destrucción, pero se encontrará en una posición muy dependiente. Aquellos grupos en cuyo interés actuarán las redes neuronales estarán en la cima, pero ¿otros?

Por lo tanto, el analista senior de investigación sobre la construcción de IA pide que se establezca un régimen regulatorio: el próximo modelo de red neuronal no debería ser mucho mejor ni más perfecto que el anterior. En consecuencia, esto impondrá serias restricciones a las empresas de desarrollo de inteligencia artificial. Sin embargo, de lo contrario, se establecerá el mismo “modo de obsolescencia”.

"El escenario más fácil de imaginar es aquel en el que una persona u organización utiliza deliberadamente la IA para causar estragos".

Finalmente, Yoshua Bengio, profesor de informática en la Universidad de Montreal, y Mila, directora científica del Instituto de Inteligencia Artificial de Quebec, creen que el escenario más realista es el uso deliberado de la IA por parte de algunas personas contra otras como arma. del crimen.

“El escenario más fácil de imaginar es aquel en el que una persona u organización utiliza deliberadamente la IA para causar estragos. Para dar un ejemplo de lo que podría hacer un sistema de IA que mataría a miles de millones de personas, hay empresas que se pueden encargar en línea para sintetizar material biológico o productos químicos. No tenemos la capacidad de desarrollar algo realmente nefasto, pero es muy probable que dentro de una década sea posible crear cosas similares. Este escenario ni siquiera requiere que la IA sea autónoma”, creen los expertos entrevistados por The Guardian.

No podemos excluir por completo el escenario en el que la inteligencia artificial desarrolla sus propios objetivos o malinterpreta los establecidos por los desarrolladores, interpretándolos a su manera. Yoshua Bengio y Mila explican: “Durante más de una década se han realizado investigaciones para tratar de comprender cómo pudo suceder esto. La intuición nos dice que incluso si una persona se fija metas como: “No lastimes a la gente”, algo siempre sale mal. No está claro si entenderían esta orden de la misma manera que, por ejemplo, la entendemos nosotros. Quizás lo entenderían como: "No dañes físicamente a las personas". Pero podrían perjudicarnos de muchas otras maneras”.

En una pesadilla, uno puede imaginar que la IA ha adquirido un instinto de supervivencia que, afortunadamente, todavía no tiene. Expertos de la Universidad de Montreal y del Instituto de Inteligencia Artificial de Quebec explicaron que al crear una criatura con instinto de supervivencia, en realidad estaríamos creando una nueva especie. "Una vez que estos sistemas de IA tengan un instinto de supervivencia, podrán hacer cosas que podrían ser peligrosas para nosotros".

“Es posible crear sistemas de IA que no se vuelvan autónomos debido a un accidente, pero incluso si encontramos una receta para crear un sistema de IA completamente seguro, saber cómo hacerlo nos dirá automáticamente cómo crear un sistema autónomo peligroso o uno que cumplirá órdenes de alguien con malas intenciones”.

© A. V. Zirmin

Investigador científico asociado. Departamento de Ingeniería Biomédica

bottom of page