Un nuevo estudio europeo revela que la sociedad teme más la desinformación y los sesgos que el colapso civilizatorio futurista prometido por Silicon Valley.
En la era de los titulares catastrofistas y los CEOs mesiánicos que auguran el fin de la humanidad si no regulamos la inteligencia artificial, un nuevo estudio viene a poner los pies en la tierra. Y lo hace con datos: más de 10 mil personas, tres experimentos y una conclusión rotunda. A la gente le preocupa más lo que la IA ya está haciendo que lo que podría llegar a hacer.
La investigación, liderada por el profesor Fabrizio Gilardi del Departamento de Ciencias Políticas de la Universidad de Zúrich, demuestra que los riesgos inmediatos como la desinformación, la pérdida de empleos y los sesgos en algoritmos son percibidos como más relevantes y urgentes que los escenarios apocalípticos del tipo "IA se vuelve consciente y decide aniquilarnos".
“El discurso público no debería ser disyuntivo. Es necesario comprender y valorar simultáneamente los desafíos inmediatos y los potenciales futuros”, sentenció Gilardi. Pero, atención, la realidad marca una prioridad clara.
¿Quién le teme a Skynet?
Los resultados surgen de tres estudios online realizados en EE.UU. y Reino Unido. Algunos participantes recibieron titulares alarmistas sobre una IA catastrófica. Otros, información sobre problemas concretos: sistemas que discriminan por raza o género, bots que amplifican noticias falsas, software que reemplaza empleos sin regulación. Los últimos generaron mayor inquietud.
Emma Hoes, coautora del estudio, destaca un punto no menor: “El debate sobre los riesgos a largo plazo no se produce automáticamente a expensas de los problemas actuales”. O sea: la gente puede distinguir entre ciencia ficción y lo que realmente le afecta el bolsillo, el trabajo o la convivencia social.
Silicon Valley y sus ficciones
El estudio aparece en un momento donde buena parte del relato hegemónico sobre la IA proviene de figuras tech que, mientras venden soluciones, exageran amenazas futuras. Sam Altman (OpenAI), Elon Musk y compañía alertan sobre el “fin de la humanidad” mientras sus modelos ya generan contenido falso, perpetúan estereotipos y optimizan despidos.
Ese desvío discursivo no es inocente. Varios investigadores advierten que concentrar la atención en un apocalipsis lejano es funcional para evitar regulaciones inmediatas. Porque discutir el futuro es más cómodo que corregir el presente.
IA en Argentina: menos ciencia ficción, más política pública
En nuestro país, donde el impacto de la IA todavía se filtra de forma desigual, los desafíos inmediatos no son menores. Desde los sistemas de scoring crediticio hasta los algoritmos policiales usados en el GCBA, ya hay evidencia de que la inteligencia artificial puede reproducir desigualdades preexistentes. Y aún así, poco se debate en el Congreso o en medios sobre marcos regulatorios efectivos.
El informe suizo sirve, entonces, para reorientar la conversación: menos distopías hollywoodenses, más políticas concretas, más control ciudadano sobre tecnologías que ya inciden en nuestras vidas. Sin caer en la negación ni en la paranoia, es hora de discutir con seriedad qué IA queremos y para qué.
Si llegaste hasta acá tomate un descanso con la mejor música