El riesgo de extinción humana y su folclore de ciencia ficción, a menudo domina las discusiones sobre los peligros de la inteligencia artificial (IA). Sin embargo, estas narrativas espectaculares tienden a eclipsar preocupaciones más inmediatas y tangibles, como la propagación de información falsa, la manipulación masiva de la opinión pública, el control autoritario de las poblaciones y el empeoramiento de la desigualdad económica, que muestran la necesidad de un consenso ético en cuanto a los desarrollos que se ponen al alcance de la población en general.
Desde que Open AI publicó el ChatGPT, tanto la ciencia de la computación, como las comunicaciones han experimentado una transformación significativa. Es que la capacidad de las computadoras para comunicarse con fluidez en lenguaje natural, incluso saltando la barrera del idioma, ha hecho que el sueño de una inteligencia artificial general, que siempre parecía inalcanzable, ya no parezca tan lejano.
En enero de 2024, arXiv publicó una encuesta realizada a 2278 investigadores sobre el futuro de la IA. Aunque la encuesta recibió algunas críticas, su mensaje principal no puede ser ignorado: la comunidad de IA tiene profundas preocupaciones éticas sobre la dirección en la que se dirige el campo. Entre los riesgos identificados, además del omnipresente riesgo de extinción humana, destacan la propagación de información falsa, la manipulación de la opinión pública, el control autoritario de las poblaciones y la creciente desigualdad económica.
La encuesta reveló una falta de consenso entre los encuestados sobre cómo abordar estas preocupaciones. No hubo acuerdo sobre si un progreso más rápido o más lento de la IA sería mejor para el futuro de la humanidad. Sin embargo, hubo un amplio consenso en que la investigación destinada a minimizar los posibles riesgos de la IA debería ser priorizada.
En América Latina, el enfoque sobre el riesgo y la IA parece a primera vista que ha sido tomado muy en serio tanto por gobiernos como por instituciones educativas. Numerosos artículos periodísticos, papers e incluso encuentros sobre los riesgos y oportunidad de la IA auspiciados por instituciones gubernamentales de países líderes como México y Brasil han abordado directamente el tema. Sin embargo, al analizar más de cerca los contenidos generados, se observa que muchos de ellos se centran en temas diversos, desde la inclusión de la mujer en la investigación, hasta la posible pérdida de empleo en sectores de baja calificación debido a la automatización, pasando por la utilización de inteligencia artificial para la eliminación de sesgos de género. Mientras que los límites éticos son sólo mencionados tangencialmente a través de llamados a una autorregulación de la industria. No podemos culparnos, ¿quién se puede preocupar por los límites éticos de la IA cuando habita en la parte inferior de la Pirámide de Maslow?
Según datos publicados por Statista.com sobre la Inteligencia Artificial en América Latina, las controversias generadas por la inteligencia artificial entre la población en general rondan sobre el temor de la pérdida de trabajos como resultado de la automatización de tareas y la transformación de los sistemas educativos. En Guatemala, el 75% de los trabajadores enfrentan la posibilidad de ser reemplazados por robots, liderando el ranking de empleos en riesgo. Esta percepción varía significativamente de un país a otro en Latinoamérica. En Perú y México, aproximadamente el 70% de los ciudadanos perciben más beneficios que inconvenientes en los productos y servicios de IA, mientras que en Brasil y Argentina, el porcentaje es ligeramente inferior al 60%. A pesar de estas diferencias, todos estos países superan la media global de aceptación, que se sitúa en el 52%, demostrando que latinoamérica no ve problemas éticos en la nueva industria y que está dispuesta a aceptar una autorregulación si demuestra capacidad de generación de empleos. Nuevamente: ¿quién se puede preocupar por los límites éticos de la IA cuando habita en la parte inferior de la Pirámide de Maslow?
La Brecha Académica-Industrial
El abismo más profundo divide la comunidad de IA en dos facciones: la académica y la industria.
Si tenemos en cuenta que Estados Unidos es el único país occidental preponderante en el desarrollo de la ciencia computacional, encontramos que los investigadores académicos se adhieren al Código de Ética de ACM, que requiere que los profesionales de la computación apoyen consistentemente el bien público.
En cambio, los investigadores industriales trabajan en corporaciones con fines de lucro que, en la práctica, se centran en la maximización de beneficios, tal como indica Jeff Horwitz, en su libro sobre Facebook Broken Code , señala: “El CEO y sus asesores más cercanos han optado por priorizar el crecimiento y el lucro sobre cualquier otro objetivo”.
Cuando hablamos de “la industria tecnológica” o “Big Tech”, tenemos que tener en cuenta que estamos hablando de solo seis corporaciones que se caracterizan por poseer una capitalización de mercado de más de un billón de dólares (cada una) e índices de penetración de mercado que superiores al 80%. Es obvio recalcar que sus presupuestos de investigación superan con creces los presupuestos de las instituciones educativas o los de la mayoría de los gobiernos latinoamericanos en ciencia de la computación.
Bueno podríamos decir sin lugar a dudas que el presupuesto de investigación de las Big Tech superan el PIB de varios países latinoamericanos considerados incluso “en vías de desarrollo”.
Además a esto le agregamos que los investigadores industriales tienen acceso a gran escala a datos frescos, muchas veces sin filtros legales o éticos y cuentan con una capacidad computacional que los investigadores académicos o gubernamentales sólo encuentran en sus sueños.
El camino hacia un futuro responsable con la IA es desafiante. La crisis que las inteligencias artificiales manifiestan se basa en la fragmentación entre investigadores académicos e investigadores industriales, que conlleva a la proliferación de riesgos éticos y sociales. La falta de consenso sobre el camino a seguir plantea obstáculos significativos. Sin embargo, sólo a través de la acción colectiva y el liderazgo ético podremos navegar hacia un futuro donde la IA beneficie a toda la humanidad.
Hoy, la responsabilidad social es mucho más central en la computación. Sería ideal que una de nuestras sociedades profesionales lidere a la comunidad de IA actuando como convocante y moderador de una conversación comunitaria sobre el futuro de la IA. Tal conversación es muy necesaria.
La comunidad de IA debe encontrar formas de colaborar y abordar colectivamente estos desafíos. La conversación sobre el futuro de la IA no puede esperar, y la responsabilidad social debe estar en el centro de esta discusión. Hacemos un llamado a todos los actores de la comunidad de IA—investigadores, académicos, profesionales de la industria y legisladores—para que se unan en un esfuerzo colectivo. La responsabilidad social no es solo una opción, es una necesidad.
Este artículo se encuentra basado en el artículo de Moshe Y. Yardi, publicado por Communications of the AMC “Is Computing a Discipline in Crisis?”