¿Temer o no temer? Los verdaderos riesgos del avance de la inteligencia artificial
En enero de 2015, el foro recién creado con el título de Instituto para el Futuro de la Vida (FLI, en inglés) invitó a expertos en inteligencia artificial a pasar un fin de semana largo en San Juan, Puerto Rico, para fijar por escrito la agenda del sector. El tono del documento resultante fue mayormente optimista. Una carta abierta reconocía que era difícil pronosticar cuál sería el impacto preciso de la IA -sí señaló algunas consecuencias potencialmente perturbadoras- pero también destacó que «la erradicación de la enfermedad y la pobreza no son impensables».
La carta abierta que el FLI publicó el 29 de marzo fue, digamos, diferente. El grupo alertó que los laboratorios de IA estaban enfrascados en «una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más potentes que nadie -ni siquiera sus creadores- pueden entender, anticipar o dominar de manera confiable». Llamó a detener de inmediato la investigación más avanzada en IA y recibió miles de firmas, incluso, entre las figuras más destacadas del sector, además de la cobertura de los medios de comunicación tradicionales.
Para todo el que se interesa por la locura en torno a la IA, la carta fue instructiva en múltiples niveles. Es un ejemplo nítido de cómo la conversación sobre las tecnologías avanzadas puede cambiar con velocidad chirriante. El clima en Puerto Rico en 2015 fue positivo y amistoso, recuerda Anthony Aguirre, vicepresidente del FLI y secretario del directorio que asistió a la conferencia y contribuyó a redactar la carta reciente. «Lo que no estaba entonces eran las compañías gigantescas compitiendo entre sí», acotó.
Mirando atrás, el riesgo de que las tecnológicas trataran de dominar el sector parece obvio. Pero esa preocupación no aparece reflejada en ningún documento a partir de 2015. Tampoco hay alusiones a la diseminación a escala industrial de desinformación, un tema que muchos expertos en tecnología ven como una de las consecuencias más inquietantes a corto plazo de los chatbots.
Después, vino la reacción a la carta de marzo. Como podía preverse, firmas líderes en IA como OpenAI, Google, Meta Platforms o Microsoft no dieron indicios de que vayan a cambiar sus prácticas. La FLI también enfrentó rechazos de parte de prominentes expertos en IA, en parte, por su vínculo con el movimiento de altruismo efectivo y con Elon Musk, quien es aportante y consejero.
¿Terminar con la pobreza o con la civilización?
Al margen de las disputas internas de Silicon Valley, los críticos entienden que el FLI fue perjudicial no por expresar preocupaciones sino por centrarse en las equivocadas. En la carta, hay un tinte inconfundible de amenaza existencial que plantea la posibilidad de que los humanos perdamos el dominio de la civilización. El temor a una súperinteligencia informática es un tema antiguo en los círculos tecnológicos, lo mismo que la tendencia a sobreestimar enormemente la capacidad de cualquier tecnología que esté en el centro del más reciente ciclo de entusiasmo (véase: realidad virtual, asistentes activados por voz, realidad aumentada, blockchain, etc.).
Anticipar que la IA terminará con la pobreza y advertir que podría terminar también con la civilización humana pertenecen a extremos opuestos del espectro de las utopías tecnológicas. Pero los dos difunden la idea de que lo que está creando Silicon Valley es más poderoso de lo que pueden entender los legos.
Hacer eso nos desvía de conversaciones menos impactantes y socava los intentos de afrontar problemas más realistas, señaló Aleksander Madry, codirector de profesores en el Foro de Políticas de IA del MIT. «En verdad es contraproducente», opinó sobre la carta del FLI. «No cambiará nada pero tendremos que esperar a que se aquieten las aguas para volver a las preocupaciones graves».
Los principales laboratorios que trabajan con IA hicieron anuncios importantes. OpenAI liberó el ChatGPT hace menos de seis meses, seguido por el GPT-4, que, según distintos criterios, funciona mejor pero cuyas operaciones internas siguen siendo un misterio. Su tecnología impulsa productos presentados por Microsoft, su principal inversor, algunos de los cuales hacen cosas preocupantes, como expresar amor por los usuarios humanos.
Google se apresuró a competir con Bard, un motor de búsqueda que tiene un chatbot. Meta puso uno de sus modelos de IA a disposición de investigadores que aceptaran ciertos parámetros y el código rápidamente se pudo descartar por todas partes en la Web.
El dilema de abrir o cerrar la tecnología
A pesar de su nombre, OpenIA fue el principal partidario de mantener la tecnología bien vigilada, con la idea de que uno de los peligros es que la IA se difunda del modo anterior. La empresa indicó que puede prever un futuro en el que presente modelos a una revisión independiente o, incluso, acepte limitar la tecnología en cierta forma. Pero no aclaró cómo decidiría algo así. Cuesta no percibir que ese método cauteloso va de la mano de sus intereses comerciales, tal como lo señalan habitualmente críticos que advierten que OpenIA busca dificultar la investigación independiente en inteligencia artificial.
También algunos rivales cuestionan el enfoque de OpenIA. «Hablando como ciudadana, siempre me desconcierta un poco que quienes dicen que esto es muy peligroso sean los que tienen la información», observó Joelle Pineau, VP de investigación en IA en Meta y profesora en la Universidad McGill.
Meta permite que los investigadores accedan a sus modelos de IA con la esperanza declarada de que puedan indagar en busca de sesgos implícitos y otras falencias. Pineau elogia eso pero reconoce que la velocidad con la que se vuelven disponibles los códigos es preocupante.
Tal vez, nunca haya una respuesta definitiva respecto de si OpenAI o Meta tienen la idea correcta: el debate es, apenas, la versión más reciente de una de las contiendas más antiguas de Silicon Valley. Pero sus caminos divergentes ponen de manifiesto el hecho de que las decisiones de salvaguardar la IA las toman ejecutivos en un puñado de grandes empresas.
Lo cual nos lleva al auge de las redes sociales, otra tecnología disruptiva que se desarrolló con escasa regulación. Aunque la IA es harto diferente, muchos de los actores implicados en esta fiebre del oro también estuvieron en aquella. Los servicios se habían arraigado profundamente para el momento en que los políticos empezaron a reaccionar con cierta firmeza y puede decirse que, al final, lograron muy poco. En 2015, aún parecía que había mucho tiempo para atender lo que surgiera de la IA. Eso parece menos cierto hoy.
La versión original de esta nota se publicó en el número 354 de revista Apertura.
https://www.cronista.com/apertura/empresas/temer-o-no-temer-los-verdaderos-riesgos-del-avance-de-la-inteligencia-artificial/
Compartilo en Twitter
Compartilo en WhatsApp
Leer en https://www.cronista.com/apertura/empresas/temer-o-no-temer-los-verdaderos-riesgos-del-avance-de-la-inteligencia-artificial/