Joshua Gans afirma que, para evaluar el poder y los peligros de la inteligencia artificial, hay que ponerla en manos de la gente
En un diálogo con Marjorie Henriquez de F&D, Joshua Gans, coautor del libro Power and Prediction: The Disruptive Economics of Artificial Intelligence, evalúa el impacto de la inteligencia artificial (IA) en la economía, desmiente las inquietudes exageradas acerca de la nueva tecnología y explica la dificultad de identificar una autoridad que vele por la ética. También analiza por qué la inteligencia artificial debería diseminarse usando medios competitivos y comerciarse de forma amplia.
F&D: A lo largo de los años, los economistas han estudiado exhaustivamente los efectos de la automatización, como la producción en líneas de montaje, en el empleo y la economía. ¿Cómo difiere esta reciente ola de IA de otras formas anteriores de automatización?
JG: Las olas previas de automatización se enfocaban sobre todo en tareas físicas, mientras que la IA tiende a abrir el potencial para automatizar tareas cognitivas. Pero esta distinción puede ser engañosa. Invariablemente, la automatización del pasado con máquinas que realizaban tareas físicas consistía en automatizar algo que hiciera un ser humano que implicara no solo interacciones físicas, sino también una expresión cognitiva de intención y aplicación. Y con la revolución de la tecnología de la información, muchas de estas tareas —en concreto, la computación— han automatizado procesos cognitivos.
La diferencia principal está más en la capacidad de la máquina para interactuar en entornos variables y no estandarizados. Por lo tanto, si bien ya se ha logrado que una máquina sea capaz de seleccionar un objeto específico en una ubicación específica y moverlo a otra ubicación, la IA encierra la promesa de seleccionar y trasladar cualquier objeto sin que esté en un lugar específico. Para esto es necesario tener una noción del entorno. Es decir, la IA tiene una propiedad que la distingue del resto que es la capacidad de automatizar tareas en contextos más variados.
F&D: En los próximos cinco años, ¿cuáles prevé que serán las principales formas en que la IA incidirá en la productividad, el empleo y la desigualdad de ingresos?
JG: La evidencia hasta ahora muestra que, cuando se ha utilizado IA para tareas en el trabajo, por lo general se trata de herramientas que permiten a personas menos cualificadas y con menos experiencia desempeñarse al nivel de quienes están más cualificados y tienen más experiencia. Por ejemplo, las herramientas de predicción de la demanda introducidas en Tokio para indicar dónde podría haber más personas que necesitan taxis en un momento dado, que han ayudado a los taxistas menos experimentados a pasar menos tiempo buscando pasajeros, no ha servido de mucho para mejorar la productividad de los taxistas experimentados.
Esto lleva a pensar que las primas por habilidades en ciertas ocupaciones se reducirán, y que surgirán oportunidades de empleo para un conjunto más amplio de personas. Esto tenderá a incrementar la productividad, elevar el empleo y reducir la desigualdad de ingresos, al menos en ciertos rangos de la distribución del ingreso. Trazar un pronóstico que vaya más allá de los próximos cinco años es más complicado.
F&D: ¿Qué aspectos de la IA considera que han recibido una atención exagerada o han sido infravalorados cuando se analiza su impacto?
JG: Los cambios ocurren tan rápido que ya me gustaría saberlo.
Pero es cierto que el actual auge ha dado lugar a un inusitado cúmulo de preocupaciones e inquietudes acerca de las consecuencias adversas que podría tener el uso de la IA generativa. Esto, en cierto modo, es una indicación de su éxito. Los modelos grandes de lenguaje, o LLM (por su sigla en inglés), como ChatGPT o Bard, son capaces de escribir más rápidamente y mejor que las personas. El arte generativo puede producir imágenes que con las herramientas actuales habrían tardado días o más en elaborarse. Y el impulso a las tareas de codificación ha sido fenomenal. A raíz de este éxito, hay quienes conjeturan que las personas serán reemplazadas en estas tareas, y que todo sucederá demasiado rápido.
La pregunta que estamos planteándonos ahora es si no habría sido mejor que nada de esto se hubiera inventado, o al menos que la adopción se hubiera pausado para tener tiempo de evaluar las consecuencias. Una motivación de esto es la precaución, pero hay que sopesarla con las pérdidas que infligiría en la productividad una adopción lenta. Además, no se puede saber cuáles son esas consecuencias adversas si los inventos no se ponen en manos de las personas.
En general, me parece que el temor ha sido exagerado, en el sentido de que se trata más de especulaciones imprecisas que de algo que esté corroborado por evidencia clara, o incluso ni tan clara. Esto contrasta con las mejoras de la productividad que son muy reales y evidentes, y hace pensar que la política de “dar rienda suelta” es la adecuada para el actual momento.
No obstante, si una de las ventajas de esa política es descubrir cuáles podrían ser las consecuencias adversas, nos incumbe vigilar esas consecuencias, determinar sus causas y pensar en experimentar con intervenciones mediante políticas que puedan mitigarlas. La rapidez también tiene sus ventajas, pero implica que debemos trabajar más arduamente para garantizar que el resultado sea el mejor.
F&D: ¿Que implica la IA para organizaciones como el FMI, que buscan fomentar el crecimiento y la prosperidad en los países? ¿Cómo puede la IA ayudar a estas organizaciones a lograr sus objetivos y facilitar el progreso económico de los países?
JG: La estrategia habitual sirve en este caso. Es necesario que la IA se distribuya de la manera más competitiva posible y esté disponible de la forma más amplia posible (mediante el comercio) de modo que pueda utilizarse en cualquier lugar del mundo donde pueda incrementar la productividad. Dicho de otro modo, el cometido sería el mismo que el de los programas que buscan fomentar la tecnología de la información y el acceso a Internet.
F&D: Teniendo en cuenta la naturaleza compleja de la AI y sus aspectos éticos, ¿qué entidades o partes interesadas serían las más idóneas para asumir la responsabilidad de regular la IA y dar orientación sobre cuestiones éticas?
JG: Es una pregunta muy difícil. Si las cuestiones éticas fueran claras, quizá podríamos identificar una institución existente, ya sea legislativa o jurídica, que podría ser la autoridad máxima sobre esos asuntos. Pero las cuestiones éticas distan mucho de ser claras. Incluso los problemas que podrían surgir relacionados con la discriminación son complejos. Presiento que será más fácil reprogramar la IA para que sea menos discriminatoria que las personas. Pero hoy más que nunca, la IA necesita una sólida orientación de políticas para inducir los cambios necesarios.
Joshua Gans es profesor de Gestión Estratégica y ocupa la cátedra Jeffrey S. Skoll sobre Innovación Técnica e Iniciativa Empresarial en la Escuela de Administración Rotman de la Universidad de Toronto.
Las opiniones expresadas en los artículos y otros materiales pertenecen a los autores; no reflejan necesariamente la política del FMI.