INTRODUCCIÓN
El desarrollo de algoritmos de inteligencia artificial (IA) para la comprensión y generación del lenguaje ha sido un objetivo clave en las últimas dos décadas para las principales corporaciones tecnológicas de Oriente y Occidente. Este avance ha sido posible gracias al acceso masivo a datos de entrenamiento y al creciente poder de procesamiento proporcionado por las unidades de procesamiento de gráficos (GPU, por sus siglas en inglés)1. Así es que se ha avanzado intensamente en la investigación acerca del modelado del lenguaje, pasando de modelos estadísticos a modelos neuronales. Recientemente, se han introducido modelos lingüísticos pre-entrenados (PLM, por sus siglas en inglés) mediante transformers en grandes corpus, mostrando una gran capacidad para diversas tareas de procesamiento del lenguaje natural (NLP, por sus siglas en inglés). Se ha probado que aumentar la escala de los modelos mejora su rendimiento. Al incrementar la cantidad de parámetros, no solo mejoran significativamente en rendimiento, sino que también adquieren habilidades especiales (por ejemplo, aprendizaje contextual), algo que no ocurre en modelos más pequeños. Es esa capacidad de aprendizaje por contexto la que genera una suerte de “movimiento en las placas tectónicas” respecto a lo que pueden significar las nuevas capacidades de las plataformas que integran IA a su funcionamiento.
A partir del lanzamiento masivo de ChatGPT-3.5, en noviembre de 2022 por parte de Open AI, los Large Language Models (LLMs) -o modelos de lenguaje grandes- han sido objeto de fascinación y experimentación que exceden el ámbito académico y científico. El lanzamiento de Chat GPT redujo las barreras de acceso a los chatbots conversacionales y a otras formas de IA, marcando el inicio de una nueva etapa en la que el término “inteligencia artificial” se volvió de uso cotidiano. Detrás de esta tecnología se encuentran los transformers, la arquitectura que hizo posible su desarrollo. Un modelo transformer es una red neuronal que aprende contexto y significado mediante el seguimiento de relaciones en datos secuenciales. Aplica un conjunto de técnicas matemáticas, de atención propia, para detectar formas sutiles en que los elementos de datos en una serie se influencian y dependen entre sí. Los LLMs, o modelos de lenguaje grandes, son el componente clave detrás de la generación de texto. Consisten en transformadores entrenados previamente para predecir, dado un texto de entrada, la siguiente palabra (o, más precisamente, token). Dado que los modelos de lenguaje predicen un token a la vez, generar oraciones completas requiere un enfoque más elaborado que simplemente llamarlos una sola vez. Para ello, se emplea la generación autorregresiva, un procedimiento en el que el modelo es llamado iterativamente, utilizando sus propios resultados previos como insumo para continuar la secuencia y mejorar la coherencia del texto. En estos casos, el modelo genera secuencias de datos -como texto- utilizando sus propias salidas anteriores como nuevas entradas, comenzando con un conjunto de datos iniciales. Este proceso se repite iterativamente para producir una secuencia completa. Las potencialidades de aprendizaje maquínico asociadas a estos modelos son infinitas y generarán cambios en la manera en que comprendemos nuestro entorno y generamos conocimiento.
Los transformers se presentaron por primera vez en 2017 en la conferencia NeurIPS a través del documento de la empresa Google titulado “Attention is all you need”, dando inicio a una ola de avances en machine learning que algunos denominan como la “IA de transformer”2. Ahora bien, los Generative Pre-trained Transformers (GPTs) son modelos de lenguaje natural que utilizan redes neuronales profundas para procesar y generar texto. Están diseñados para entender y producir lenguaje humano de manera similar a como lo haría un ser humano, aunque su conocimiento se deriva de vastos conjuntos de datos. El GPT más utilizado, el Chat GPT, cuenta con más de 200 millones de usuarios activos semanales -a noviembre de 20243- y tiene una interfaz simple en la cual el usuario (en su versión “gratuita”) puede acceder al historial de las interacciones con el chat de los últimos 7 días, ver conversaciones de ejemplo o ingresar texto con el prompt (instrucción o texto utilizado para interactuar con la IA), ya sea en voz o por medio del teclado. Algunas de estas organizaciones y/o empresas se dedican exclusivamente a fortalecer y entrenar más y mejor a estos modelos de lenguaje, mientras que otras los utilizan a modo de una Application Programming Interface (API) para desarrollar nuevos productos y servicios. En Occidente, existen en la actualidad más de 7000 empresas y organizaciones desarrollando software, aplicaciones y hardware con IA integrada. Las áreas en las que estas empresas se desempeñan son variadas, entre ellas: logística, finanzas, seguros, gestión crediticia, búsqueda, reventa, educación, aeroespacial y defensa, salud, atención al cliente, ciberseguridad, gaming, manejo de residuos, Information Technology (IT)4 y DevOps5, automatización, agricultura.
En este artículo se observarán tres niveles de dinámicas en el avance de estas tecnologías. El primero, busca registrar las integraciones de las Inteligencias Artificiales Generativas de lenguaje e imágenes a software y hardware, así como a plataformas, y en ese marco reflexionará en torno al concepto de agencia editorial. En un segundo nivel, se analizarán las más reconocidas y pujantes StartUps de los LLMs de Estados Unidos y de otros países, así como sus vinculaciones con empresas platafórmicas de fabricación de hardware y servicios de cloud computing, para observar las vinculaciones entre dichas startups y las corporaciones que concentran las inversiones en estos desarrollos. Por último, el tercer nivel pretende ahondar en los tipos de vínculos (relaciones de interoperabilidad, asociación estratégica, servicio de nube o integración de IA) que se dan entre las principales corporaciones platafórmicas (Google, Microsoft, Meta, Amazon, Apple, X, Salesforce), las empresas productoras de microchips, GPU, Tensor Proccessing Unit (TPU)6 y las que ofrecen servicios de almacenamiento en la nube de manera de dar cuenta del escenario de interoperabilidad que propone este tipo de tecnologías y su efecto en las denominadas burbujas epistémicas.
A partir de esta propuesta, se pretende mapear el estado de situación actual de estas tecnologías por medio de una amplia, aunque no exhaustiva ni definitiva, sistematización de información. Los datos sistematizados en esta investigación fueron recopilados a partir del contenido de sitios oficiales, manuscritos cortos de compañías, videoconferencias, sitios de noticias especializados e informes y anuncios institucionales7. A través del uso de técnicas cualitativas como la revisión bibliográfica y el análisis de contenido, se pretende construir un bagaje de conocimiento actualizado acerca del estado de situación actual en torno a la integración y desarrollo de los LLMs. Este aporte es especialmente relevante en un campo donde la literatura sigue siendo limitada, salvo por algunos estudios clave. Entre ellos se encuentran los trabajos sobre la genealogía de la datificación digital y algorítmica en la IA (Gendler, 2024) (Gendler, 2021), la perspectiva analítica de los diferentes debates en torno a la conversación pública sobre las Inteligencias Artificiales Generativas y los LLMs (Costa et al., 2023) y los estudios acerca de la hiperautomatización, entendida como la próxima generación de automatización inteligente (Madakam et al., 2022).
ANÁLISIS
LLMs, agencia e integración
Los GPTs están diseñados para implementarse a través de APIs8 (Langlois et al., 2009) que permiten a los desarrolladores integrar sus capacidades en diversas aplicaciones y sistemas. Estas APIs facilitan la comunicación entre el GPT y otros programas, permitiendo la entrada de texto y recibiendo respuestas generadas por el modelo. Se apoyan en una arquitectura transformer que utiliza el procesamiento del lenguaje natural (NLP) y son pre-entrenadas con gran cantidad de textos sin supervisión. Luego, estos modelos se ajustan y especializan en tareas específicas. Su capacidad de aprendizaje continuo les permite expandir su alcance a múltiples ámbitos. De este modo, la integración de los LLMs en casi cualquier actividad humana plantea nuevos desafíos en cuanto a la propiedad y gestión de los transformers que procesan estos flujos de datos. Esto configura un vasto control sobre información altamente diversificada y específica, cuya recopilación sería mucho más difícil sin esta tecnología. La expresión cultura algorítmica de Striphas (2015) permite reflexionar acerca de este proceso: “Los seres humanos han estado delegando el trabajo de la cultura (…) crecientemente a procesos computacionales. Semejante cambio altera el modo en el que la categoría cultura ha sido hasta ahora practicado, experimentado y entendido” (p. 395). Así, la agencia humana, de acuerdo con la teoría del actor-red de Latour (1999), se invisibiliza y se limita. Implica por momentos la “supervisión”, la curación de datos de entrenamiento y la configuración de parámetros para adaptar el modelo a las necesidades específicas. De allí que los humanos también son responsables de validar la calidad de las salidas generadas por el GPT y de asegurar que cumplan con estándares éticos y prácticos. Pero al mismo tiempo, dichos LLMs representan una forma de agencia no humana en el sentido de que pueden tomar decisiones y realizar tareas cognitivas complejas sin intervención directa de las personas: pueden analizar datos, generar texto, realizar traducciones y responder preguntas de manera automatizada y eficiente. Pongamos como ejemplo lo que ocurre con la integración de LLMs a los motores de búsqueda. El algoritmo de indexación de Google, PageRank, toma decisiones basadas en un conjunto de criterios que evalúan el contenido de las páginas web para determinar el orden en que se presentan los resultados de búsqueda. A partir de esos resultados, el usuario elige en qué hipervínculo hacer clic para acceder a la información solicitada. Es decir, agencia humana y no humana trabajando de manera simple y colaborativa.
En dicha ecuación ya pesaban las implicancias relacionadas a los enlaces patrocinados y al sistema de monetización que impulsa Google como modelo de negocios con el Search Engine Optimization y el Search Engine Marketing9 (Bala & Verma, 2018), aunque se puede suponer que la decisión ulterior es del ser humano -mediado por algoritmos, pero decidido por el ser humano-. Pero, ahora bien, ¿qué ocurre cuando se le integra Gemini al motor de búsqueda? La respuesta a esa pregunta configura, en parte, los grandes dilemas epistémicos de estos tiempos. Primer dilema: el AI Overview, nombre que se le da a la respuesta resumida sin realizar ningún click que brinda el motor de búsqueda como primera respuesta destacada. Este es un resumen automatizado por un modelo de lenguaje basado en criterios que son difíciles de determinar y rastrear, ya que dependen de la experiencia de búsqueda de cada usuario y del nivel de entrenamiento del LLM al momento de su uso. En este marco, el riesgo está en no comprender completamente los desafíos que la IA plantea para la agencia humana debido a las ambigüedades conceptuales que rodean al concepto de agencia. Para Floridi (2009), la agencia se refiere a la capacidad de los agentes (humanos o artificiales) para actuar de manera autónoma y tomar decisiones informadas dentro de lainfoesfera, que es el entorno global de información. En tal sentido, la agencia no solo implica la capacidad de actuar, sino también la responsabilidad ética de las acciones realizadas. Un punto de partida lo proporciona la teoría del actor-red, que se centra en los “colectivos” (Latour 2007), no sólo de humanos sino también de conjuntos de humanos y objetos que, colectivamente, construyen lo social y, por lo tanto, poseen agencia. Tema que se conecta con la noción de la sociedad datificada, donde la construcción de la realidad se basa en la creación de sentido a partir de datos, lo cual ha impulsado un debate crucial sobre el poder de agencia, incluyendo la evolución de la agencia humana con el surgimiento de una agencia maquínica omnipresente (Hepp & Görland, 2024).
De este planteo teórico surge el segundo dilema: la agencia de Google -por seguir con el ejemplo- se torna central en la actividad de búsqueda de información, es decir, se torna en agencia editorial. Algo que hasta este momento era ampliamente debatido y refutado por las empresas tecnológicas que no consideran que sean responsables de generación de contenido10. Este salto epistémico ocurre, entonces, en dos niveles: 1) cognoscitivo, pues configura nuevas formas de definir la realidad establecidas y editorializadas por agencia no humana; 2) performativo, pues puede guiar a la acción a los seres humanos de maneras inimaginables y potencialmente nocivas para quien lo utilice.
De allí que este doble juego de agencia humana y no humana habilita a reflexionar con mayor profundidad en torno al concepto de gubernamentalidad algorítmica de Rouvroy & Berns (2015), una definición que observa de manera crítica el funcionamiento de la captación de datos en sistemas como los que ofrecen las plataformas. Los autores plantean que las características principales de este gobierno algorítmico son la creación de una dupla de lo real, un gobierno sin sujeto y un trabajo directo que limita o extrae los procesos de individuación de los sujetos, o su devenir. La gubernamentalidad algorítmica se caracteriza por un doble movimiento: el abandono de cualquier forma de “escala” a favor de una normatividad inmanente y evolutiva en tiempo real, de la cual emerge un “doble estadístico” del mundo que parece rechazar las viejas jerarquías establecidas por el hombre y la renuncia a cualquier confrontación con los individuos cuyas oportunidades de subjetivación se hallan, cuanto menos, enrarecidas. El valor de esta definición está en que pone como eje a las estadísticas contemporáneas en las relaciones y destaca la centralidad de las máquinas algorítmicas en los procesos de desarrollo tecnológico. Costa (2017) resalta la centralidad que tiene esta noción como grilla de inteligibilidad de las sociedades contemporáneas. Algo que, en los últimos años, resulta difícil de rebatir. En este sentido, van Dijck (2021) entiende que las complejidades de las plataformas están cada vez más desfasadas respecto de los estrechos conceptos legales y económicos en los que se basa su gobernanza y define los ecosistemas de información como estructuras jerárquicas e interdependientes. Esto inevitablemente pone el foco en cuestiones de poder, conflicto y explotación, una discusión que actualmente tiene lugar, por ejemplo, con respecto al capitalismo de vigilancia (Zuboff, 2019) y el colonialismo de datos (Couldry & Mejías, 2019).
Esta última característica se vio ampliamente profundizada por los movimientos de asociaciones y alianzas que ocurrieron entre Microsoft y OpenAI, Nvidia y Meta, Oracle y Microsoft, por mencionar algunas empresas, entre 2019 y 2024. Ejemplos de esto pueden ser la asociación de Microsoft con startups como Mistral AI y Alt.ai, o el uso que terceras partes hacen de la infraestructura provista por Open AI o Gemini (de Alphabet/Google) para sus desarrollos y mejoras (Widder, West & Whittaker, 2023). Sumado a estos movimientos, la incorporación de IA en las principales plataformas durante 2024 muestra el enorme interés de las corporaciones por realizar un fine-tuning de acuerdo con las necesidades de los usuarios. Muchas de estas integraciones en plataformas no brindan la posibilidad de que los usuarios opten por no utilizar sus servicios (optout) como, por ejemplo, la IA de Meta incorporada a WhatsApp e Instagram, lo que configura un listado enorme de países cuyos ciudadanos no tienen forma de proteger sus datos y su privacidad que no sea dejando de utilizar esos servicios por completo.
En la Tabla 1 se recopilan las más reconocidas y actualizadas integraciones de LLMs a diversos sistemas, aplicaciones y hardware en funcionamiento. Con este ejercicio se pretende rastrear el avance en el último año de la integración de estos sistemas al ecosistema digital.
Tabla 1: Integración de IA a plataformas, software y hardware (2024)

*Excepto en UE (pueden rechazar su instalación).
** Asociación estratégica.
*** Integración del LLM de Open AI.
****Utiliza los LLMs de Open AI. Mistral y Anthropic.
*****Para Ios18. Ipad iOS 18.1 y Sequoia 15.1 (en Iphone 15 Pro y Iphone 16, Ipads y Mac con chip M1 o más)
Fuente: elaboración propia.
LLMs y vínculos corporativos concentrados
Lanzar herramientas de generación de texto, de imágenes y sonidos conlleva un riesgo asociado a los posibles resultados erróneos o maliciosos (deepfakes, fakenews, phising, entre otros) que las empresas parecieran no sopesar. El sistema occidental está en gran parte monopolizado por unas pocas empresas tecnológicas (Amazon, Alphabet, Meta, Apple, Microsoft). van Dijck, et al. (2018) definen una plataforma como “una arquitectura programable diseñada para organizar interacciones entre usuarios” (p. 9) y clasifican las plataformas en dos: las plataformas infraestructurales, que conforman los principales sistemas sociotécnicos para el intercambio de recursos, mensajes y contenidos, la coordinación de prácticas, movimientos y, especialmente, de los flujos de datos y comunicaciones. Cada una de ellas cumple el rol de brindar su infraestructura para un enorme abanico de plataformas específicas llamadas plataformas sectoriales -que no podrían operar sin esta base brindada por las infraestructurales-. Las sectoriales controlan cada vez más las puertas de ingreso del tráfico en Internet, la circulación de datos y la distribución de contenido, y asimismo logran eludir el escrutinio regulatorio convencional (Gillespie, 2018).
Helmond (2015) define la plataformización como la penetración de las extensiones de plataformas en la web y el proceso mediante el cual terceras partes habilitan sus datos para la plataforma. Interactúan las APIs, que facilitan el flujo de datos con terceros (complementadores) y los paquetes de desarrollo de software(los SDK, por sus siglas en inglés), que les permiten a terceros integrar susoftwarecon las infraestructuras de las plataformas (Helmond, Nieborg & van der Vlist, 2019). En conjunto, estas infraestructuras informáticas y los recursos informativos permiten relaciones institucionales que están en la raíz de la evolución y el crecimiento de una plataforma, ya que las plataformas proporcionan un marco tecnológico sobre el cual se puede construir (Helmond, 2015). Así, el paso de la concepción de estas tecnologías conceptualizadas como plataformas al análisis del accionar de estas como un proceso, dio lugar al concepto de plataformización, entendido como
la interpenetración de las infraestructuras digitales, los procesos económicos y los marcos gubernamentales de las plataformas en diferentes sectores económicos y esferas de la vida, así como la reorganización de las prácticas y los imaginarios culturales que existen en torno a estas plataformas. (Poell, Nieborg & van Dijck, 2022, p. 6)
La explosión de asistentes de IA aplicados a procesadores de texto, planillas de cálculo, motores de búsqueda (Copilot, Gemini), aplicaciones de chat como WhatsApp, redes sociales como Instagram (Meta AI-Llama) o X (Grok), y sistemas operativos (OS) para diversos hardwares como computadoras o smartphones (por ejemplo, Copilot o Samsung AI), demuestra lo relevante que resulta para estas empresas el entrenamiento que le proveen los usuarios individuales, buscando de esa manera mejorar la performance de estos sistemas. También obliga a pensar en los enormes volúmenes de datos que procesan estos sistemas y en la profundización del perfil de usuario que este uso provoca. ChatGPT 4-0, por ejemplo, está diseñado para reconocer el entorno en el que se encuentra el usuario e incorporar conocimiento acerca de sus preferencias y sus hábitos, que se mantienen y recuerdan en la performance del GPT de manera local -lo que Zuboff (2019) denomina excedente conductual-. Ese es un nuevo escalón en la gubernamentalidad algorítmica, entendida como “cierto tipo de racionalidad (a)normativa o (a)política que reposa sobre una recolección, agregación y análisis automatizado de datos en cantidades masivas de modo que se pueda modelizar, anticipar y afectar, por anticipación, los comportamientos posibles” (Rouvroy & Berns, 2015, p. 41).
Benjamin Bratton (2016) considera a las plataformas como las redes inteligentes, las nubes y las aplicaciones móviles que evolucionan, no como objetos separados, sino como un aparato computacional con una nueva arquitectura de gobierno con capas de diversos intereses. La concentración de actores encargados de desarrollar transformers, tanto en términos de programación como de entrenamiento y fabricación de hardware, abona la principal preocupación en torno a los dos ejes planteados en este trabajo: la profundización de los alcances de la gubernamentalidad algorítmica y la inevitable formación de burbujas epistémicas. Actualmente, son pocas las empresas que desarrollan y entrenan transformers, y prácticamente nulos los desarrollos por parte de Universidades, o centros de investigación de carácter público. Algunas de ellas son la Universidad del Sur de California y Georgia Tech. La National Science Foundation también realizó en 2024 fuertes inversiones en siete Institutos Nacionales de Investigación en IA recientemente establecidos en todo Estados Unidos, pero los volúmenes de dinero invertido son muy bajos en comparación con el mundo privado12. En el universo privado, las más reconocidas son Open AI (GPT), Microsoft (Copilot); Meta (Llama), Google (Gemini), X AI (Grok) y Apple (Apple Intelligence), todas ellas en asociación con el principal proveedor de Graphic Processor Units (GPU), Nvidia e Intel, entre otras. Vale aclarar que algunas empresas utilizan código de fuente abierto, como Meta (Llama), Hugging Face (BLOOM), Anthropic (Claude), Cohere (Command), Mistral (Mistral Large), Data Bricks (DBRX) y Perplexity (PPLX), la cual, además, funciona con conexión online a la web abierta. En ese marco, no se debe dejar de lado el ecosistema Oriental, principalmente chino y taiwanés, conformado por empresas como 01 Ai (Yi Series), H3C (ex Huawei), Inspur (Yuan), Tencent (Hunyuan), Alibaba (Tongyi Qianwen), el Instituto de Automatización de la Academia China de Ciencias y el Instituto de Inteligencia Artificial de Wuhan (Zidong Taichu), Zhipu AI (GLM-4), Moonshot AI (Kim), Baichuan, MiniMax (Abab) y Byte Dance (LLM en desarrollo, todavía no anunciada). Estas empresas representan un mercado muy competitivo y desafiante para el mercado norteamericano en el desarrollo de IA, como se ha demostrado con el lanzamiento del modelo R1 de Deepseek en enero de 2025, que causó pérdidas millonarias en la bolsa de valores a empresas productoras de microchips como NVIDIA por su enorme potencial con menores necesidades energéticas, monetarias y de procesamiento.
El universo de los LLMs es un universo mixto, en el que se mezclan estructuras de organizaciones sin fines de lucro (NPO, por sus siglas en inglés) con estructuras de ganancias limitadas (LLC, por sus siglas en inglés); otras son empresas privadas con interés de lucro (FPO, por sus siglas en inglés) y, algunas de ellas, conforman corporaciones de beneficio público (PBC, por sus siglas en inglés). Algunas ofrecen sus transformers, o sus modelos de manera abierta, es decir, Open Source (OS), otras son de código cerrado (CS, por sus siglas en inglés), mientras que muchas poseen tanta variedad de modelos que ofrecen ambas opciones al mercado de desarrolladores. Por una cuestión operativa, no se ha relevado si los pesos (weights) con los que han sido pre-entrenados los modelos son abiertos o cerrados, ya que depende mucho del tipo de modelo y política de la compañía desarrolladora que los mismos se compartan.
Como se desprende de este detalle de características que pueden asumir este tipo de organizaciones, la complejidad del escenario es considerable Sumado a ello, esta diversidad está asociada a grandes corporaciones con una larga trayectoria y un amplio reconocimiento. De allí que fue necesario reconstruir los nexos que existen entre ellas en la Tabla 2 a los efectos de que se puedan observar los vínculos que mantienen en la actualidad.
Tabla 2: Inversiones y asociaciones en desarrollos de AI vinculados a LLMs (2024)

*Repositorio.
** Text to Video, Image to Video and Text to Image.
***Text to Video, Image to Video and Text to Image-Audio/3D
Fuente: elaboración propia.
Los procesos de asociaciones estratégicas resultan vitales para este nuevo mercado. Así como Microsoft incorporó los servicios de OpenAI a sus productos ofreciendo hosting en Azure, su nube, Apple también cerró tratados en 2024 con OpenAI para asistir a Siri, su asistente de voz, en sus búsquedas de imágenes, mientras que Google hizo lo propio con Samsung AI al ofrecerle sus servicios de Google Lens y Nvidia firmó acuerdos comerciales para la producción de GPUs con Meta y X, por nombrar algunos ejemplos.
LLMS, INTEROPERABILIDAD Y BURBUJAS EPISTÉMICAS
Los costos sociales y económicos de la concentración en el ecosistema digital configuran un problema global que sustenta la lógica económica de la extracción de datos que controla la vida de los consumidores occidentales (Couldry & Mejías, 2019). Esta concentración por acumulación -de hardware, insumos, tráfico y acumulación de datos y capacidades de entrenamiento- conlleva más retos que los exclusivamente vinculados con la acumulación excesiva y el procesamiento de la vida social en niveles nunca observados. Esto es, no sólo con fines comerciales y publicitarios, sino también con marcadas consecuencias epistémicas. Entrenar transformerses extremadamente caro y consume niveles de energía y agua potable muy elevados. Luccioni (2024) sostiene que, para la generación de 1000 imágenes, los modelos de IA de texto a imagen como DALL-E requieren 1.5 litros de agua por kilowatt de energía consumida. Además, el promedio de emisiones de CO2 per cápita es de aproximadamente 5 toneladas al año, mientras que el entrenamiento de un modelo Transformer grande, con búsqueda de arquitectura neuronal, emite 284 toneladas de CO2. Entrenar un único modelo base (sin ajuste de hiperparámetros) en GPUs requiere tanta energía como un vuelo transamericano (Strubell, Ganesh & McCallum, 2020). Y si bien parte de esa energía proviene de fuentes renovables o del uso de créditos de compensación de carbono por parte de empresas de computación en la nube, la mayoría de la energía de los proveedores de computación en la nube no proviene de fuentes renovables, lo que subraya la necesidad de arquitecturas de modelos y paradigmas de entrenamiento energéticamente eficientes.
Además, la disrupción y la innovación en la búsqueda no son gratuitas en términos monetarios. Los costos de entrenar un LLM son muy altos. Más importante aún, los costos de inferencia superan con creces los costos de entrenamiento cuando se implementa un modelo de estas características. De hecho, los costos de inferencia de ChatGPT superan semanalmente los costos de entrenamiento. Dylan Patel, analista jefe de la firma de investigación SemiAnalysis.com (SemiAnalysis, 2024), relevó en un informe publicado en su sitio web, que a OpenAI le cuesta 36 centavos de dólar por consulta mantener su chatbot en funcionamiento hasta 2024. Es decir que estas empresas son conscientes de que el avance de estos modelos aplastará las ganancias generadas por venta de publicidad, por ejemplo, en los motores de búsqueda en un plazo muy corto. De allí que estén trabajando contrarreloj para incorporar IA a todos sus productos de cara a generar una mejora en sus modelos, reducir la latencia y aumentar el perfilamiento de usuarios por otros medios. Quien mejor y más rápido integre la IA, gana. Quien más rápido genere path dependance en sus usuarios, logrará imponer sus productos y servicios con mayor eficiencia. Algunos estudios insight de audiencias ya están observando que la implementación de IA en motores de búsqueda como Gemini en Google o Copilot en Bing ha alterado la cantidad de búsquedas que realizan los consumidores, la cantidad de resultados en los que hacen clic o la cantidad de tráfico que Google envía a la web abierta o a enlaces patrocinados tanto en la Unión Europea como en Estados Unidos, afectando su rentabilidad y su modelo de negocios (Fishkin, 2024).
Como se observa en la Tabla 3, tanto las asociaciones estratégicas, como las posibilidades de interoperabilidad y las fuertes dependencias en términos de servidores, plantean un panorama de extrema concentración en muy pocos actores que debería ser especialmente atendido si se pretende paliar el efecto de la gubernamentalidad algorítmica.
Tabla 3: Relaciones interempresariales en el mercado de IA occidental (2024)

Fuente: elaboración propia
Todo lo expresado anteriormente también profundiza los efectos negativos de las burbujas epistémicas. Siguiendo a Nguyen (2020), las burbujas epistémicas conforman una estructura epistémica social en la que algunas voces relevantes han sido excluidas por omisión. Las burbujas epistémicas pueden formarse sin mala intención, a través de procesos ordinarios de selección social y formación de comunidades, lo que supone que la cooperación epistémica se está haciendo cuando los sujetos se comunican entre sí, pero también a través de la exclusión de determinados grupos o personas, o mediante la creación intencionada de entornos institucionales que llevan a los individuos a aceptar una perspectiva como la única viable. Esto último es lo que podría estar en desarrollo a partir de la integración de LLMs a las plataformas. Un efecto que hace que la información transmitida, repetida y elaborada genere un sistema amplificado de ideas y creencias en el que se omiten concepciones o perspectivas distintas a las del usuario (An, Quercia & Crowcroft, 2014). Además del efecto de agencia editorial de los agentes no humanos descrita anteriormente, estos modelos trabajan con bases de datos cerradas u obtenidas de la web, en el mejor de los casos, para generar un output en el que se reformulan los contenidos asociados al prompt específico. En Internet, el contenido en inglés domina más de la mitad de todo el contenido escrito en línea, a pesar de que sólo alrededor del 16% de la población mundial habla este idioma de acuerdo con la Internet Society Foundation (2023). Existen en el mundo más de 7.100 idiomas según el catálogo de Ethnologue Newsroom, (2024). Llama 3.1 de Meta funciona sólo en 8 idiomas -al menos hasta julio de 2024-, Gemini 1.5 Flash está disponible en 40 idiomas, el GPT de Open AI, en su versión más avanzada, funciona en 50 idiomas y en algunos países como China, Rusia, Irán y otros del continente africano tiene un uso restringido o limitado. Escenario muy alejado del “círculo virtuoso de las IA” que anuncian empresas como Nvidia, por la cual cualquier aplicación que utilice datos de texto, imagen o video secuenciales es un candidato para los modelos de transformers.
Aunque investigar las propiedades de los modelos de lenguaje y cómo cambian con su tamaño tiene un interés científico, y los grandes LLMs han mostrado mejoras en varias tareas, no se ha reflexionado lo suficiente sobre los posibles riesgos asociados a su desarrollo e integración en plataformas y las estrategias para mitigarlos o frenarlos a tiempo. Habrá que observar de qué manera las empresas invierten, o no, en recursos para la curaduría y documentación cuidadosa de los conjuntos de datos en lugar de ingerir todo lo que está en la web, reduciendo el riesgo de “los loros estocásticos” y, por ende, los efectos de la burbuja epistémica.
La tendencia humana a atribuir significado al texto, junto con la capacidad de los grandes modelos de lenguaje para aprender patrones asociados con diversos sesgos y actitudes perjudiciales, presenta riesgos de daño real si se difunde texto generado por estos modelos. (Bender et al., 2021, p. 618)
Los peligros del texto sintético están profundamente relacionados con el hecho de que dicho texto puede entrar en conversaciones sin que ninguna persona o entidad asuma la responsabilidad. También pueden tener “alucinaciones” generando contenido inexistente presentado como real. Esta responsabilidad incluye tanto la veracidad como la importancia de contextualizar el significado. Es por ello, que considerar poner a prueba previo a la salida al mercado masivo estos modelos con una importante intervención humana en todas sus fases será muy importante de cara a evaluar cómo la finalidad del modelo se ajusta a los objetivos de investigación y desarrollo y apoya los valores establecidos (Bender et al., 2021).
CONCLUSIONES
La rapidez con que se implementan los nuevos desarrollos en IA hace que sea muy difícil seguirles el ritmo a quienes realizan investigación en el área. La información no es transparente, muchas veces no se explicita en el material periodístico que las narra y a veces hasta se configura como un secreto entre partes. Sumado a esto, el dinamismo de las asociaciones, fusiones y acuerdos interempresariales obligan a considerar un marco de observancia más atento y detallado si se pretende comprender quiénes y de qué manera se controlan estos sistemas y se acrecienta su poderío. Más que nunca, es necesario comprender en mayor profundidad cómo funciona la plataformización y mapear los escenarios que contribuyan a repensar los marcos de gobernanza compartimentados en un enfoque más holístico, tal como sugiere van Dijck (2021).
La integración de los LLMs en plataformas podría ampliar el alcance de la gubernamentalidad algorítmica ya que permite una mayor recopilación y análisis de datos, lo que a su vez fortalece la capacidad de las plataformas para modelar, predecir y responder a los comportamientos de los usuarios. Al ser integrados en motores de búsqueda como Google (Gemini) o Bing (Copilot), estos modelos de lenguaje modifican la forma en que los usuarios acceden a la información. La opacidad de los criterios utilizados por los algoritmos para seleccionar y presentar la información otorga a las plataformas una agencia editorial significativa, lo que plantea dilemas éticos y epistémicos. Esto se ve aumentado por la creciente capacidad de los LLMs para recordar (memories) y utilizar información sobre las preferencias y hábitos de los usuarios a nivel local profundiza aún más el concepto de excedente conductual, descrito por Zuboff (2020). Como pudo observarse en las tablas elaboradas, es de vital importancia de analizar este contexto en el marco de la plataformización, puesto que estas tecnologías amplificaran la interpenetración de infraestructuras digitales, en los procesos económicos y marcos gubernamentales, en la organización de la información y las interacciones en línea aumentando la concentración del poder y el control sobre los datos y la información en manos de unos pocos.
La personalización algorítmica, acelerada por la integración de LLMs en las plataformas, contribuye a la formación de burbujas epistémicas. Al basarse en conjuntos de datos limitados y en las preferencias de los usuarios, los modelos de lenguaje generativos pueden brindar resultados que refuercen las ideas preexistentes y limiten la exposición a perspectivas diferentes. Además, la predominancia del idioma inglés en los contenidos online y la limitada disponibilidad de LLMs en otros idiomas agravan este problema, creando barreras lingüísticas para el acceso a la información y la diversidad de perspectivas.
Con la rápida integración de la IA, y en particular de los LLMs, en las plataformas digitales se nos presentan desafíos importantes y urgentes. La concentración del poder demostrada por las asociaciones y alianzas en las tablas generará una profundización de las formas en que se ejerce la gubernamentalidad algorítmica, problemática que requiere una mayor atención por parte de investigadores, legisladores y la sociedad en general. Todo esto ocurre en un marco poco regulado, que avanza a un ritmo difícil de seguir y que corre la barrera del límite constantemente. Ello, sumado a la falta de transparencia en el desarrollo y funcionamiento de estas tecnologías, así como la velocidad con la que se están integrando en diversos ámbitos de la vida, dificultan la posibilidad de un debate público informado y la implementación de medidas de control y regulación efectivas. La creciente delegación de procesos cognitivos a las tecnologías asociadas con la IA muestra ser un problema acuciante en nuestras sociedades, no sólo por la creación de burbujas epistémicas sino porque podría amplificar desigualdades sociales, culturales, económicas y políticas al mismo tiempo que es responsable de la mayor proliferación de sesgos raciales y discriminatorios difíciles de contrarrestar con igual velocidad y potencia. Será tarea de la academia y de los investigadores implicados en estos desarrollos afinar la mirada crítica y dedicarse a comprender estos fenómenos con la mayor especificidad posible.