BLOG ORLANDO TAMBOSI
Vivemos um momento imprevisível, dizem os maiores experts em IA. Eles não têm respostas e os cidadãos pedestres não somos capazes sequer de formular as perguntas pertinentes. Patrícia Gosálvez, do El País, viajou até o Instituto para os Estudos do Futuro, em Estocolmo, em busca de um pouco de luz:
El
cuestionario se proyecta sobre un cristal táctil suspendido en medio de
la exposición. Las preguntas se iluminan a la vista de todos: ¿te
implantarías un chip en el cerebro para ser más listo?, ¿dejarías a tu
madre anciana o a tu bebé al cuidado de un robot?, ¿debería tener
derechos dicho robot?, ¿dejarías que una inteligencia artificial
programada para ser imparcial fuese juez?, ¿transferirías tu conciencia a
la nube para vivir eternamente?… El espectador posa la mano sobre el
“Sí” o el “No” que aparecen en pantalla. Es una suerte de güija
futurista en la que uno es el fantasma del pasado, el ente obsoleto que
titubea cabreado.
Aunque te hace sentir viejísimo, la exposición Hyperhuman del Museo de Tecnología de Estocolmo ni siquiera es tan nueva. Se inauguró hace un par de años, mucho antes de que ChatGPT copase las portadas de los medios generalistas y las preocupaciones globales. Muchísimo antes de que Claude Shannon
(1916-2001), padre del bit y la teoría de la información, soltase una
de las frases que cierra la muestra: “Visualizo un momento en el que
seremos para los robots lo que los perros son para los humanos. Y yo
apuesto por las máquinas”.
Según
muchos expertos, aún no estamos ahí, pero vivimos en la posible bisagra
hacia la distopía. Un momento en el que todo un vicepresidente de
Google deja el puesto para dedicarse a llamar la atención sobre “el
problema existencial que supone la inteligencia artificial”. ¿Cómo poner
freno a su desarrollo en un sistema capitalista?, se preguntaba Geoffrey Hinton en una entrevista en EL PAÍS.
“No lo sé”, se respondía. Un momento en el que un millar de
investigadores, empresarios e intelectuales de primer nivel (Elon Musk,
Yuval Noah Harari, Steve Wozniak…) firman una carta abierta
pidiendo una moratoria para regular los “modelos impredecibles” más
allá de ChatGpt4. “¿Deberíamos desarrollar mentes no humanas que tarde o
temprano nos van a superar en número e inteligencia, tornándonos
obsoletos y reemplazables?”, reflexiona la misiva. Max Tegmark,
profesor de Inteligencia Artificial (AI) en el MIT y presidente del
Instituto Future of Life, que impulsó la carta, admite en sus
entrevistas que “no sabemos cómo parar el meteorito que hemos creado”.
Cuando
ni los mayores expertos del mundo tienen respuestas, el lego,
felizmente inconsciente o sencillamente aterrorizado, ni siquiera es
capaz de formular las preguntas pertinentes.
Para
buscar algunas de las que nos deberíamos estar haciendo, viajamos a
otro lugar de Estocolmo, lejos de los brillos de ciencia ficción de la
exposición. Discretamente anidado sobre el Centralbadet de la ciudad —un
delicioso spa art nouveau inaugurado en 1904— se encuentra el Instituto para los Estudios del Futuro,
una disciplina surgida en los años sesenta que proyecta de manera
científica escenarios probables a largo plazo para la humanidad. En el
frondoso y húmedo invernadero que acoge la cafetería de los baños,
Gustaf Arrhenius, profesor de Filosofía, explica que el instituto que
dirige no es, “en absoluto”, un think tank: “No tenemos una ideología,
ni vendemos nada”. “Somos muy interdisciplinares y nos hacemos preguntas
que no encajan en el estándar”. La principal es: “¿Qué podemos hacer
para alcanzar un futuro más deseable y qué debemos hacer para evitar los
peores de entre los posibles?”. El instituto tiene enfrascados en
distintos proyectos a un centenar de investigadores (sociólogos,
filósofos, politólogos, economistas, matemáticos…) de una quincena de
países y cuenta con un presupuesto de ocho millones de euros (dos de
ellos subvencionados por el Gobierno sueco). Sus resultados se presentan
en publicaciones científicas, se trasladan a los políticos y a quienes
toman las decisiones (tanto en Suecia como en otros países de la Unión
Europea), y se transmiten al gran público. El lugar es un paréntesis
humanista, un espacio para pensar sobre las generaciones futuras, la
justicia social o el impacto de la tecnología.
La
primera duda es evidente: ¿Llegamos tarde al cuestionamiento de la
tecnología? “Los ciudadanos, la sociedad y, sobre todo, los reguladores
van siempre por detrás de los avances”, dice Arrhenius, que plantea dos
líneas temporales, no excluyentes, por las que la IA preocupa a los
Estudios del Futuro. Por un lado, hay dilemas que “ya están aquí”:
violaciones de la privacidad en una sociedad cada vez más vigilada, deep
fakes (bulos) imposibles de cazar o el uso burocrático de IA, por
ejemplo, para asignar pensiones, permisos o la libertad condicional de
los presos. Por otro lado, hay problemas que “están aún muy lejos”,
véase la extinción de la raza humana a manos de máquinas
superinteligentes. “Personalmente, más que lo que vayan a hacer las
máquinas por sí mismas, me preocupa lo que pueda estar haciendo la gente
con ellas”, dice el filósofo.
Karim
Jebari, también filósofo e investigador en el centro, hace la
distinción tecnológica entre ambos problemas: por un lado, está la IA
débil o especializada, con la que convivimos. Es la que nos recomienda
series en Netflix, autocompleta nuestras búsquedas en Google, reconoce
nuestra cara en el iphone, ayuda a servicios sociales a decidir si
retira una custodia o charla con nosotros sobre la existencia de Dios en
ChatGPT. Por otro lado, tenemos la IA fuerte, o general (IAG), una
mente tan inteligente como la humana (con las ventajas de ser digital,
como replicarse o aprender a velocidad vertiginosa) que podría hacer
infinidad de cosas, incluida tener nuestro destino en sus manos. Aún no
existe. “Los problemas que pueden generar son distintos, pero merece la
pena explorar ambos”, dice Jebari, que añade que “es desafortunado que a
veces se confundan”.
Los
inmensos dilemas que ya plantea la IA, sin necesidad de imaginar un
mundo en el que los robots voten o aniquilen a la humanidad, están solo
empezando a ser abordados por los reguladores. La UE firmó a principios
de mayo el texto de la Ley de Inteligencia Artificial, que se espera que
entre en vigor en 2025. El hecho de que el cuestionamiento ético y
legislativo sea posterior a la implementación de las tecnologías no es
necesariamente malo, dice Jebari: “Los problemas importantes surgen
cuando hay una aplicación específica; tiene sentido mantener estas
discusiones una vez que vemos cómo se usan las herramientas”.
“Por
naturaleza, los reguladores son lentos y la tecnología se mueve cada
vez más deprisa”, añade el economista Pontus Strimling, que señala otro
matiz: “Las tecnologías generales como el motor de combustión, los
ordenadores o la IA generan muchos problemas a corto plazo, pero a largo
plazo crean una sociedad mejor. El riesgo cuando estos saltos
tecnológicos se acortan cada vez más es que empalmemos un periodo
problemático con el siguiente”.
Quizá
en parte por ello, ¿habría que pausar el desarrollo de los grandes
modelos de lenguaje como pide la carta que los expertos firmaron en
marzo? “Creo que es una gran idea, pero no porque me preocupe la
extinción de la especie, sino porque nos serviría para recuperar la
sensación de control”, dice Strimling. Según el especialista en cambios
culturales y normas, “el gran público, incluso la clase política, siente
que la tecnología es algo que nos ocurre, no algo que hacemos que
ocurra”. Hemos olvidado que es una creación humana y que “estamos al
mando”, dice. “Al menos en las democracias, podemos quedarnos con lo que
nos funciona de la IA y descartar lo que no queremos”
¿Pero
no es el avance imparable? “Durante el último año, el discurso
dominante, especialmente desde la propia comunidad tecnológica, lo ha
marcado el determinismo tecnológico: esto va a llegar, hagamos lo que
hagamos. Pero, simplemente, no es cierto”, elabora Jabari, mencionando
que a lo largo de la historia el ser humano ha cambiado o parado el
desarrollo de múltiples tecnologías. Recientemente, menciona, la
clonación humana, los alimentos transgénicos o la energía nuclear.
“Cuando mucha gente piensa que algo es peligroso, los políticos actúan”,
resume el filósofo. ¿Debemos frenar el desarrollo de la IA entonces?
“Evidentemente, si así lo creemos, estamos en una democracia; si la
gente pide restricciones, se pondrán; incluso los Estados que no son
democráticos lo hacen, China también echa el freno cuando siente que
algo se le va de las manos”.
Parte
del razonamiento de quienes piden una moratoria pactada por todos los
actores es que la competencia entre empresas promueve avances poco
cautelosos. ¿Es la clave del problema que el desarrollo de la IA esté en
manos privadas? “Que las corporaciones lideren la carrera es
problemático”, dice Arrhenuis, “ya que los incentivos para acatar las
consideraciones éticas podrían verse superados por el afán de lucro y el
miedo a quedarse atrás frente a sus competidores”. Sin negarlo,
Strimling añade, sin embargo, un matiz que arranca con una anécdota:
“Hace años, fue precisamente un desarrollador de DeepMind [laboratorio
de IA adquirido por Google en 2014] el primero que me habló preocupado
sobre el futuro de estos modelos, mucho antes de que las ciencias
sociales reaccionasen; desde entonces, he hablado con desarrolladores
que sienten que están en el Proyecto Manhattan”. Es decir, no cree que
haya una “especial reticencia” en el sector a ser regulado, ya que
muchos especialistas viven con desasosiego los avances en los que
colaboran. De hecho, el economista siente que algunos tecnólogos tienen
una “visión exagerada”, más distópica que la media, del futuro. “Quizás
porque ven todas las posibilidades y sus problemas derivados, pero lo
hacen desde su burbuja”, dice. Y pone un ejemplo: “He visto ingenieros
inquietos porque en 2030 todo el mundo tendrá un coche autónomo y será
el caos… Eso es no entender cada cuánto se compra un coche la gente
normal”.
La Estatua imposible, obra creada por inteligencia artificial para el Museo de Tecnología de Estocolmo.
“En
todo lo que rodea a la IA, la división entre optimistas y distópicos
está cada vez más polarizada”, dice la socióloga Moa Bursell. En el
centro de su último proyecto late una de las grandes preguntas sobre la
herramienta: ¿puede ayudar a evitar el error y los sesgos humanos, ser
más imparcial, alinearse mejor con ciertos valores o todo lo contrario?
La especialidad de Bursell no es la computación, sino la inclusión y la
diversidad del mercado laboral, y “como científica social” se declara
“neutral” sobre la implementación de inteligencias artificiales en los
procesos de selección de personal que estudia. En teoría, explica,
pueden ir muy bien (un algoritmo justo libera de papeleo a los
departamentos de recursos humanos, que pueden dedicar tiempo a la
selección final) o pueden salir terriblemente mal (las máquinas son
“mucho más consistentes” que los humanos, y cuando el algoritmo se
desvía, lo hace a lo bestia). Bursell ha sacado el problema del ámbito
teórico y analizado su implementación en una empresa concreta para
comparar a quién contrataba tras adquirir uno de estos sistemas frente a
quién contrataba antes de recibir la ayuda de la máquina. El resultado
le sorprendió: el uso de la IA reforzó el patrón de contratación de la
empresa, disminuyendo su diversidad; contrataron a más de lo mismo…
“¡Pero no fue culpa del algoritmo!”, dice. La IA hizo una preselección
equilibrada, fueron los gerentes quienes eligieron con más sesgo a los
finalistas. Cuando controlaban ellos mismos todo el proceso, fueron más
inclusivos. El algoritmo no se torció, pero su uso hizo que los humanos
se torciesen: “El problema fue la interacción máquina-humano”. Quizás
los gerentes sintieron menos responsabilidad, o no entendieron la
herramienta, o se sintieron amenazados… La socióloga no pudo preguntar,
pero extrae varias conclusiones: “Crear una IA sin sesgo es solo el
primer paso, su implementación debe ser explicada y monitorizada; si nos
limitamos a comprar estas herramientas para ahorrar trabajo, habrá
cosas que saldrán mal”. Lo cual no significa que no deba usarse: “No
partimos de una situación perfecta que las máquinas puedan arruinar, no
es que a los humamos se nos dé genial esto, la discriminación laboral es
un problema enorme, la pregunta es si la IA puede mejorarlo o no”.
En
otro de los despachos del instituto, Ludvig Beckman, profesor de
Ciencias Políticas, estudia qué efectos puede tener la IA en la
democracia. También en su área hay preguntas “muy especulativas” sobre
las futuras máquinas superinteligentes; por ejemplo, ¿podrían llegar a
votar los robots? El politólogo menea la cabeza, pero concede: “No lo
creo, pero la pregunta te fuerza a reconsiderar los límites de la
inclusión y las razones por las que pensamos que no pueden votar ciertas
personas u otros agentes”, como los niños, los discapacitados mentales
graves, los animales… ¿Podrían los robots tener entonces derechos? El
politólogo duda: “Puede que haya literatura al respecto, las IA tendrían
objetivos, no intereses, y aun así me cuesta ver el daño moral
implícito en no respetar los intereses de una máquina”, dice Beckman.
¿Podría regularse al menos no ser cruel con máquinas que aparentan ser
casi humanas? “Es un razonamiento interesante porque así empezó el
movimiento por los derechos de los animales, se prohibió la crueldad
innecesaria, no pensando en el animal, sino en nuestra propia moralidad,
porque maltratarlos nos brutalizaba como seres humanos”.
Discutido
lo que aún estaría por llegar, Beckman prefiere enfocarse en la
transparencia y la legitimidad democrática de la toma de decisiones
públicas que ya se informan con la ayuda de la IA. “Un asunto más
mundano y más a mano”, dice, añadiendo que en Suecia se acaba de
publicar una ley que abre el camino para que se usen aún más en diversos
procesos burocráticos. “El problema no es que las máquinas tomen malas
decisiones, sino que estos sistemas que ya aprenden solos lo hacen con
mecanismos que no son transparentes ni siquiera para quien los
programa”, dice el experto. Por tanto, aunque las maquinas tomen
decisiones públicas eficientes, ¿deberíamos dejar que las tomasen? “La
democracia exige que las decisiones sean justificadas ante el pueblo. La
gente tiene derecho a saber por qué se le ha negado un permiso o
concedido una subvención”, dice el politólogo. “Las leyes surgen de
alguien en una posición de autoridad que puede explicar el razonamiento
que las sustentan”. Para explicarlo recurre al ejemplo de una
calculadora: te fías del resultado, pero la maquina no tiene autoridad
sobre ti. Beckman acaba con otro dilema: “Los beneficios de la IA
burocrática serían mayores en las democracias más vulnerables, en países
donde la corrupción o la ineficiencia lastran muchas decisiones
públicas; sin embargo, es también en esos países donde puede haber más
propósitos espurios para introducirla”.
“No veo una máquina haciendo mi trabajo”, dice el coreógrafo Robin Jonsson, cuyo proyecto GetReal funde baile y tecnología.
Los
investigadores sociales coinciden en que la IA es revolucionaria, pero
una mera herramienta, y en que, aunque la usamos, todavía no ha cambiado
de manera radical nuestras vidas. Parte de la investigación del
economista Strimling es predecir qué aplicaciones triunfarán y cuáles se
quedarán en el camino. Lo llama “pre-ética”: “Si sabemos qué
aplicaciones se extenderán a más velocidad, sabremos qué preguntas
éticas debemos responder con más urgencia”. Su conclusión es que no
importa tanto la usabilidad o las bondades de una aplicación para su
éxito como el modo en que se “propaga”. Y la manera más eficaz es la
“infusión”: cuando una innovación se cuela en una herramienta que ya usa
todo el mundo. “Un día, Netflix, Google o YouTube introducen IA o
aprendizaje profundo en sus sistemas de recomendación y de forma
instantánea se mete en los ordenadores de todo el planeta sin que los
usuarios se den mucha cuenta”, dice. Un ejemplo reciente: “Sale ChatGpt,
los más tecnófilos empiezan a usarlo, puede que el público general
trastee un rato con la app, pero el salto se da cuando Microsoft lo
adquiere y se introduce en sus motores de búsqueda”. “¿Dónde queda la
libertad de elección del usuario?”, se pregunta Strimling, “y, más allá,
¿dónde queda la representación de la diversidad cultural cuando un
grupo muy reducido de personas de un entorno muy concreto —mayormente
desarrolladores de Silicon Valley— toma decisiones sin consultarnos
sobre lo que todos usaremos cotidianamente el día de mañana?”.
El
filósofo Jebari insiste en que “no es solo una cuestión tecnológica,
sino también política”, sobre todo ante una de las preguntas que más
preocupan: ¿cómo afectará al trabajo? ¿Se usará para liberarnos de lo
más tedioso y mejorará nuestra calidad de vida, o servirá para
explotarnos aún más? De nuevo, depende. “En muchas empresas, al aumentar
la productividad, la herramienta ya ayuda a quitar cargas y conciliar
mejor; en otras ocurre lo contrario: el reto no es tecnológico, sino
regulador, sindical, político”, concluye el filósofo, mencionando un
análisis que realizó con un compañero de los almacenes más robotizados
de Amazon: eran más productivos, pero también tenían más accidentes y
más estrés e insatisfacción laboral, ya que los trabajadores han tenido
que adaptarse al ritmo frenético de las máquinas.
En
una sala diáfana del Instituto para los Estudios del Futuro, el
coreógrafo Robin Jonsson conecta a una bailarina a un entorno de
realidad virtual donde ella marca el paso entre dos mundos. Es una
muestra de uno de sus proyectos de danza y tecnología, Get Real, en el
que bailarines y público comparten una onírica pista digital
interactuando a través de la máquina. También trabaja con un robot
danzante con el que admite que está “bastante frustrado”; los bailarines
humanos son más obedientes y le resulta más fácil conseguir de ellos lo
que busca que explicárselo al robot en complejos prompts (órdenes) que
no siempre entiende. Cualquier ilustrador profesional que haya trasteado
con herramientas de IA gráfica sabe a lo que se refiere. Jonsson
disfruta explorando los límites de su arte y creando situaciones que
“expanden una experiencia que está íntimamente ligada a la presencia, lo
físico y la reacción del otro”. Comparada con las artes plásticas o la
música, donde la tecnología lleva años siendo parte del proceso, la
danza, dice, está en pañales.
Lo
que lleva a la última pregunta: ¿podrá la IA sustituir a los creadores?
“No lo sé, yo estoy deseando usarla a mi favor, pero no lo creo; sobre
todo, las artes escénicas se pueden automatizar solo hasta cierto punto,
porque el cuerpo es tan importante; pero incluso pensando en IA con
forma de androides realistas, creo que seguirán haciendo falta
comisarios humanos. Lo que sí cambiará es cómo trabajan los artistas”.
Como coreógrafo, cree que la riqueza vendrá de la fusión entre la IA y
los humanos, cada cual aportando sus cualidades. “Mi talento principal
es facilitar la socialización, sacar lo mejor de los bailarines, los
músicos, los técnicos…, y no veo a una máquina haciendo eso”, dice.
Aunque admite que, incluso dentro del arte, quizás la expresión que nos
es más propia como especie, la danza es “la última trinchera humana”.
Las
ilustraciones de este reportaje han sido creadas por Pablo Delcan a
partir de imágenes generadas por inteligencia artificial.
Postado há 1 week ago por Orlando Tambosi
Nenhum comentário:
Postar um comentário