Tecno

Inteligencia Artificial ¿puede ser realmente un peligro?

Compartir:

Stephen Hawking, adelantado en tantas investigaciones, también lo hizo respecto al tema que se vuelve cada vez más controversial. En diciembre de 2014, durante una entrevista con la BBC, advirtió que “el desarrollo de la Inteligencia Artificial puede terminar con la raza humana”.

En marzo de 2023, el empresario e innovador más icónico de este tiempo, Elon Musk, pidió "pausar" los avances en IA porque "podría poner en riesgo a la humanidad".

¿De verdad un desarrollo que supone un avance en el conocimiento, puede volverse riesgoso como una guerra nuclear? ¿No estaremos proyectando un futuro distópico, acaso exagerado, por el temor a la emergencia de una máquina "demasiado" inteligente?

Hay algo seguro: que las alarmas suenen ante un avance científico, cuestiona las nociones mismas de avance, la idea iluminista, tan del siglo XVIII, vinculada a un Progreso irrefrenable, objetivo, más allá de las "desviaciones" ideológicas.

Lo fuerte es que quienes piden una pausa son los nombres más emblemáticos de la comunidad de la ciencia y la innovación. A Musk deben sumarse nada menos que Bill Gates, el creador de Microsoft. Otros se sitúan en una posición menos apocalíptica y más integrada, como Mark Zuckerberg, el dueño de Meta. Pero, ¿esta discusión de millonarios puede afectarnos a todos?

Leer también: Miedo: Inteligencia Artificial creó 40 mil armas químicas en menos de 6 horas

La Inteligencia Artificial al poder

Nuestro cerebro contiene una gran cantidad de componentes simples, que son articulados por denominados "sistemas complejos". Pero cuando la cantidad de componentes simples aumenta, las propiedades emergentes salen fuera del esquema original. Las neuronas son bastante simples, pero de su conexión surge la conciencia, la inteligencia y la memoria. De algo así refiere el peligro de la IA. En los sistemas complejos aparecen más excepciones que normas.

¿Cuál sería la diferencia con el tradicional método científico de hipótesis, prueba y error? En este caso, llegado a un resultado, se entienden las causas que llevaron a ello. Hay un mecanismo conocido. Con la IA, los desarrolladores prueban con un sistema complejo que no llegan a comprender por completo y cuyos resultados pueden dispararse hacia lugares desconocidos. Se combinan elementos sin saber sus potencialidades. Tan simple y tan peligroso como eso.

En Argentina se habla de "preocupación genuina"

Daniel Yankelevich, director del área de datos de Fundar, la organización dedicada al estudio, investigación y diseño de políticas públicas, admitió ante la consulta de Ambito.com la "preocupación" que existe sobre el tema.

"Hay una preocupación, que es bastante genuina, sobre que la IA lleve a algún tipo de episodio que ponga realmente en riesgo a la humanidad", refirió el investigador, a su vez director de Practia.

En ese sentido, apuntó que "el New York Times hizo una encuesta a gente vinculada al tema, sobre si consideraba que hubiera algún riesgo de algún episodio, en que se pusiera en riesgo a la humanidad y el 10% respondió que sí. Hablamos de gente metida en el tema, especialistas, con lo cual es preocupante".

"Esto señala la importancia que se le da al tema, y que llevó a esta carta firmada por Musk y otros, pidiendo la suspensión de este tipo de modelos, para discutirlo en profundidad", añadió.

"Hay muchos modelos de IA además del GPT-4, y se van a construir muchos más, sin lugar a dudas, y hay un riesgo de impacto social muy grande, que viene por dos lados: todo lo que es noticias falsas (fake news), y la foto del Papa Francisco es un buen ejemplo de eso, o la de Donald Trump detenido, o la simulación de voz, que llevó a casos de secuestro; y la posibilidad de ser disruptivo en redes sociales, generando miles de mensajes, notas, tuits, para manipular, a la opinión pública y al mercado financiero. Y por el otro lado, el riesgo laboral, en algunos sectores, como ocurriera en la Revolución Industrial".

El GPT-4, la última alarma

Esta semana, el laboratorio de investigación de Inteligencia Artificial OpenAl lanzó la nueva actualización de su sistema de lenguaje software, el GPT-4. Se trata, nada menos, de una herramienta de avanzada para analizar imágenes e imitar el habla de los seres humanos. Algo así como armar una red neuronal con un billón de parámetros, para que aprenda todo el volumen de texto disponible en internet.

Pero existe este temor: esta aparente simpática herramienta es apenas una fracción, poderosa pero minúscula, de lo que realmente puede hacer GPT4. Aún en su uso restringido deja perplejas a las personas.

Hasta OpenAl reconoció no saber del todo su funcionamiento y se mostró "sorprendido" por las capacidades emergentes de esta plataforma. Nuevamente, de numerosos elementos simples y su articulación, se disparan resultados fuera de control. Hay un riesgo que debemos debatir si estamos dispuestos a asumir. Y, dato no menor, miles de millones de dólares giran alrededor de cada desarrollo tecnológico.

Un Terminator muy real

Nos estamos asomando a un cruce peligroso entre futuro distópico y presente catastrófico, entre ciencia ficción y tecnología demasiado real. Cuando se inició la saga de Terminator, en 1984, se hablaba de eso: máquinas de un futuro no tan lejano que habían tomado el control del mundo, y venían al pasado a destruir a un humano que se había rebelado contra ellas: John Connor. ¿La creatividad de James Cameron puede terminar siendo una forma, acaso involuntaria, de predicción? La película catapultó la carrera de Arnold Schwarzenegger y lo hizo gobernador de California, pero las consecuencias pueden ser aún peores…

Los riesgos reales de la Inteligencia Artificial

¿Cuáles son los riesgos de crear una máquina más inteligente que el ser humano? ¿Y cómo reaccionaría ante nosotros? ¿Puede ser un parámetro cómo reaccionamos nosotros, los humanos, ante una criatura menos inteligente? Podrían cuidarnos, por qué no. O aniquilarnos. Lo real es que estaríamos en sus manos. Seríamos inferiores a una tecnología creada por nosotros mismos, una paradoja que a esa supuesta máquina infernal no le importará al momento de decidir qué hacer con nosotros.

Fuente: Ambito

La entrada Inteligencia Artificial ¿puede ser realmente un peligro? se publicó primero en Sin Mordaza.

Publicaciones relacionadas

Botón volver arriba