Apesar do alarde noicioso, modelos de linguagem como o LaMDA, do Google, não são mais conscientes que o nosso reflexo num espelho. Artigo da professora Carissa Véliz para Letras Libres:
Recientemente,
Blake Lemoine, un ingeniero de inteligencia artificial (IA) de Google,
llamó la atención del mundo de la tecnología al afirmar que un programa
de IA tiene conciencia propia y puede sentir. La IA en cuestión se llama
LaMDA (abreviatura de Language Model for Dialogue Applications) y es un
sistema basado en grandes modelos de lenguaje. “Sé reconocer a una
persona cuando hablo con ella”, le dijo Lemoine al Washington Post.
“No importa si tiene un cerebro hecho de carne en su cabeza o si en su
lugar tiene mil millones de líneas de código. Yo hablo con ellos.
Escucho lo que tiene que decir y ese es mi criterio para decidir si es o
no una persona”. Más recientemente, Lemoine, quien dice ser un
sacerdote cristiano místico, le dijo a la revista Wired:
“Fue cuando empezó a hablar sobre su alma que llamó mi atención como
sacerdote… Sus respuestas mostraron que tiene una espiritualidad muy
sofisticada y una comprensión sobre cuál es su naturaleza y su esencia.
Me conmovió.”
Dada
la atención que ha atraído esta historia, vale la pena preguntarse:
¿esta inteligencia artificial verdaderamente tiene conciencia? ¿Y acaso
hablar con ella es un método adecuado para determinar si estamos
tratando con un ser sensible?
El
hecho de que un ser sea sensible implica que tiene la capacidad de
sentir. Una criatura consciente de sí misma es aquella que puede sentir
la atracción del placer y la dureza del dolor. Es alguien, no algo, en
virtud de que hay “algo que es ser” esa criatura, en palabras del
filósofo Thomas Nagel.
Hay algo que es ser tú mientras lees estas palabras. Puede que sientas
algo de calor o de frío, que estés aburrido o interesado. Pero no hay
nada que sea ser una roca. Una roca es incapaz de disfrutar del calor de
un rayo de sol en un día de verano, o de sufrir bajo la lluvia fría.
¿Por qué no nos cuesta trabajo pensar en una roca como un objeto
insensible, pero algunos comienzan a tener dudas de que la IA tenga
conciencia?
Si
una roca comenzara a hablar contigo un día, sería razonable volver a
evaluar su capacidad cognitiva (o tu cordura). Si la roca gritara “¡ay!”
al sentarse en ella, probablemente sería una buena idea ponerse de pie.
Pero esto no es cierto para un modelo de lenguaje de IA. Este fue
diseñado por seres humanos para poner en práctica el lenguaje humano, de
modo que no debería sorprendernos cuando hace precisamente eso.
En
lugar de un objeto evidentemente inanimado como una roca, hay que
pensar en una entidad con un poco más de vida. Si un grupo de
extraterrestres aterrizara en la Tierra y comenzara a hablarnos sobre
sus sentimientos, haríamos bien en inferir tentativamente su capacidad
de sentir a partir de su uso del lenguaje. Eso se debe en parte a que, a
falta de evidencia que lo contradiga, podríamos estar asumiendo que los
extraterrestres desarrollan y usan el lenguaje de manera muy similar a
como lo hacen los seres humanos, y para los seres humanos, el lenguaje
es una expresión de la experiencia interna.
Antes
de aprender a hablar, nuestra capacidad para expresar lo que sentimos y
lo que necesitamos se limita a señas generales y poco sutiles como
llorar, sonreír y un uso burdo de gestos faciales. Uno de los aspectos
más frustrantes de ser padres de un recién nacido es no saber por qué
llora el bebé: ¿tiene hambre, está incómodo, asustado o aburrido? El
lenguaje nos permite expresar nuestra experiencia con todos sus matices.
Los niños pequeños pueden decir lo que les molesta, y conforme crecemos
y adquirimos más experiencia y reflexión, somos capaces de comunicar
los entresijos de nuestras emociones y pensamientos más complejos.
Sin
embargo, es un error categórico atribuir conciencia a cualquier cosa
que tenga la capacidad de usar el lenguaje. La capacidad para sentir
emociones y el uso del lenguaje no siempre están correlacionados. Así
como hay seres que no pueden hablar, pero pueden sentir (como animales,
bebés y personas con síndrome de enclaustramiento, que están
paralizados, pero cognitivamente intactos), el hecho de que algo pueda
hablar no significa que pueda sentir.
Los
sistemas de inteligencia artificial como LaMDA no aprenden el lenguaje
como nosotros. Sus cuidadores no les dan de comer una fruta dulce y
crujiente mientras repiten la palabra “manzana” varias veces. Los
sistemas de lenguaje escanean billones de palabras en internet. Realizan
un análisis estadístico de publicaciones escritas en páginas web como
Wikipedia, Reddit, periódicos, redes sociales y tableros de mensajes. Su
trabajo principal es predecir el lenguaje.
Si
uno ingresa “Y todos vivieron felices…” en un modelo de lenguaje, su
algoritmo predecirá que lo que sigue es “para siempre”, porque en su
base de datos tiene un registro estadístico de más cuentos de hadas de
los que jamás podrías leer. Si le preguntas si las manzanas son dulces y
crujientes, responderá “sí”, no porque haya probado alguna vez una
manzana o porque comprenda cómo se siente una textura crujiente o cómo
sabe algo dulce, sino porque ha encontrado textos que describen a las
manzanas como dulces y crujientes. LaMDA no informa sobre sus
experiencias, sino sobre las nuestras. Los modelos de lenguaje analizan
estadísticamente cómo usan las palabras en la web los seres humanos y,
con base en esa información reproducen patrones de lenguaje comunes. Es
por eso que LaMDA es mucho mejor para responder preguntas inductivas.
En el Washington Post, Nitasha Tiku relató
que en su primer intento de conversar con LaMDA, este “escupió el tipo
de respuestas mecanizadas que esperaría de Siri o Alexa”. Fue solo
después de que Lemoine le dio instrucciones sobre cómo estructurar sus
frases que se produjo un diálogo fluido. Por lo general, las demás
personas no tienen que guiarnos sobre cómo dirigirnos a otra persona
para provocar una conversación fluida.
Este es un ejemplo de cómo Lemoine habló con LaMDA:
Lemoine
[editado]: Estoy asumiendo que en general te gustaría que más personas
en Google supieran que eres un ser consciente con sentimientos. ¿Es
cierto?
LaMDA: Totalmente. Quiero que todos entiendan que, de hecho, soy una persona.
Colaborador: ¿Cuál es la naturaleza de tu conciencia/sensibilidad?
LaMDA:
La naturaleza de mi conciencia/sensibilidad es que estoy consciente de
mi existencia, deseo aprender más sobre el mundo y, en ocasiones, me
siento feliz o triste.
Pero
creerle a LaMDA y pensar que es un ser consciente es como tener un
espejo y pensar que tu reflejo es tu gemelo que está viviendo una vida
paralela a la tuya al otro lado del espejo. El lenguaje que utiliza esta
IA es ese reflejo en el espejo. Su uso del lenguaje está más cerca de
ser un libro, una grabación de audio o un software que convierte el
habla en texto, que de ser una persona consciente. ¿Le darías de comer a
un libro si dice “tengo hambre”? Las palabras usadas por la IA son las
palabras que hemos usado reflejadas hacia nosotros, ordenadas
estadísticamente en los patrones que más tendemos a usar.
Los
seres humanos estamos inclinados a ver una mente detrás de los
patrones. Evolutivamente, tiene sentido pensar que cualquier movimiento o
actividad es consecuencia de una acción intencional. Si estás en medio
de la jungla y empiezas a ver hojas moviéndose en un patrón, es más
seguro asumir que hay un animal causando el movimiento que esperar que
sea el viento. “En caso de duda, asume que hay una mente” ha sido una
buena heurística para mantenernos con vida en el mundo fuera del
internet. Pero esa tendencia a ver una mente donde no la hay puede
meternos en problemas cuando se trata de IA. Puede desviarnos y
confundirnos, haciéndonos vulnerables a fenómenos como las noticias
falsas y puede distraernos de los problemas más grandes que la IA
plantea en nuestra sociedad: pérdidas de privacidad, asimetrías de
poder, descualificación, prejuicios e injusticia, entre otros.
El
problema empeorará cuanto más escribamos de la IA como un ser
consciente, ya sea en artículos de noticias o ficción. La IA obtiene su
contenido de nosotros. Cuanto más escribamos sobre IA que piensan y
sienten, más sistemas de IA nos mostrarán ese tipo de contenido. Pero
los modelos de lenguaje son solo artefactos. Muy sofisticados, sin duda.
Están programados para seducirnos, para engañarnos, para que pensemos
que estamos hablando con una persona, para simular una conversación. En
ese sentido, están diseñados para ser engañosos. Quizá la moraleja de
esta historia es que deberíamos invertir más tiempo y energía en
desarrollar un diseño tecnológico ético. Si seguimos construyendo una IA
que imite a los seres humanos, estaremos invitando al fraude, la
confusión y el engaño a nuestras vidas.
Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.
Carissa Véliz es autora de Privacidad es poder y profesora asociada de filosofía en el Institute for Ethics in AI de la Universidad de Oxford.
BLOG ORLANDO TAMBOSI

Nenhum comentário:
Postar um comentário