1. INTRODUCCIÓN
La identidad del periodismo como profesión en el mundo moderno muestra una amplia brecha entre la importancia que reviste su tarea a nivel social y la percepción de sus límites, estructuras y competencias. El paulatino cambio registrado en las últimas décadas del siglo XXI se ha convertido en un problema grave, que no solo afecta a quienes realizan esta tarea, sino que también cuestiona sus capacidades para cumplir un rol social (Donsbach, 2014). En ese marco, la forma de construir el relato informativo con textos noticiosos creados por máquinas preparadas para imitar mediante algoritmos el modo de estructurar y escribir las noticias y sustituir al periodista invita a nuevos debates deontológicos, laborales y sociales (Túñez-Lopez, Toural-Bran & Valdiviezo-Abad, 2019). Si bien nos encontramos en una etapa inicial de la aplicación de estas tecnologías en el contexto de las redacciones -sobre todo en América Latina, donde recién se comienzan a observar algunas experiencias de este tipo-, existe una creciente tendencia a que la concepción comercial del periodismo gane espacio y las decisiones de los periodistas acerca del contenido mediático se basen cada vez más en el alcance, lo cual incrementa la urgencia de incorporar tecnologías probadamente más eficaces y la presión gerencial y del personal jerárquico de aumentar los niveles de audiencia (Donsbach, 2014).
La aplicación de Inteligencia Artificial (AI) para el procesamiento de datos y producción de noticias utiliza una tecnología compleja que requiere de personal capacitado, ingenieros y editores, dado que los programas de Natural Language Technology (NLG)1 son creados y programadosin house-es decir, en la misma empresa de noticias o proporcionados por grandes corporaciones como Google News Iniciative o Microsoft Cognitive Services, por citar algunos ejemplos-. Además, muchos de los informes, reportes e investigaciones acerca de este campo son financiadas por estos mismos conglomerados de empresas, lo cual amplía y justifica el interés en la problemática.
De allí también la relevancia del recorrido propuesto en este artículo, que parte de una breve revisión bibliográfica sobre las principales cuestiones de debate en torno a la aplicación de automatización en redacciones, el relevamiento de experiencias avanzadas de productos periodísticos creados por máquinas y el análisis de las potencialidades y los riesgos asociados a la aplicación de estas tecnologías. Para complementar este recorrido, se propone el análisis textual y crítico de dos documentos: el reporte sobre la automatización de noticias de la World Association of News Publishers -conocida como WAN-IFRA-, titulado “News Automation: The rewards, risks and realities of ´machine journalism´” (Lindén & Tuulonen, 2019) y la guía vinculada al procesamiento algorítmico de datos en redacciones de la agencia de noticias The Associated Press (AP): “The future of augmented journalism. A guide for newsrooms in the age of Smart machines” (Marconi & Siegman, 2017)2. La selección no fue aleatoria: se consideran dos de las guías más influyentes y completas producidas por quienes llevan la delantera en el desarrollo y aplicación de tecnologías en el campo periodístico. La hipótesis con la que se trabaja es que estos documentos no consideran la aplicación de estas tecnologías y sus potenciales consecuencias de acuerdo a las normas deontológicas del periodismo.
Existen, además de estos informes, vastos trabajos de encuestas y reportes que dan cuenta del estado actual de estas tecnologías en el campo periodístico (Fanta, 2017; Beckett, Novermber 18, 2019; Montal & Reich, 2017; Diakopoulos, 2019). Dicho esto, y considerando las desigualdades en este campo a nivel global, preocupa que las posibilidades de implementar más IA en redacciones en América Latina se vean en gran parte influenciadas por las prácticas que se resaltan como “exitosas” desde lógicas empresariales o de mercado. Incluso, estas innovaciones podrían conllevar implicancias de orden económico y normativo. Es decir, por su efectividad y potencial de generar un mayor valor, las redacciones más relegadas en estos procesos podrían verse ante la necesidad de aplicar programas generados por estas grandes corporaciones, cuyo sesgo vendrá preestablecido y será difícil -o imposible- de modificar sin conocimiento de la arquitectura implicada en la programación. Sumado a lo anterior, los usos y las aplicaciones que propongan estos softwares también serán de alguna manera impuestos. Por ejemplo, los análisis de reportes anuales de empresas y las estadísticas deportivas, muy relevantes en la cultura norteamericana y europea, podrían ser instalados en otros países y culturas por la aplicación de las IA entrenadas. Según Donsbach (2014), “las nuevas tecnologías ponen al alcance de todo el mundo un abanico de herramientas de comunicación, por lo que ya no se requiere de la participación de los medios tradicionales para comunicarse con el público” (p. 35). De allí que resulte interesante tener en consideración el modo en que se define la reconversión de las prácticas periodísticas habituales hacia sectores novedosos y hacia servicios diferenciales, sin perder de vista aquello que traen implícito en su utilización, cuestiones todas observables en los documentos seleccionados para el análisis.
Este artículo se estructura en cuatro apartados. La introducción al tema y problemática analizados. Luego la necesaria revisión bibliográfica acerca de los cambios que se están produciendo. En estos apartados se plantea la relevancia del tema y se listan las distintas y enfrentadas formas en que se pretende arribar a un término que defina la actividad periodística mediada por estas tecnologías. También se reflexiona sobre la automatización de noticias y el impacto en el vínculo entre humanos y máquinas, entre trabajo y capacidad. Y en línea con la revisión bibliográfica, se describen algunas experiencias de aplicación de automatización en redacciones relevadas en uno de los documentos analizados. Esto permitirá observar y resaltar el avance que sobre esta área tienen los países ubicados en el hemisferio norte.
El tercer apartado hace hincapié en los resultados obtenidos en el análisis de los documentos y se presentarán los principales dilemas éticos que la automatización en redacciones plantea de acuerdo al contenido de los documentos mencionados. El aporte central girará en torno a reconocer cuáles implicancias éticas se resaltan -o no- en estos documentos, así como aquellos potenciales desafíos futuros de la práctica en redacciones a partir de un mayor uso de IA: la programación de los algoritmos (quiénes y cómo), los tipos de datos que se utilizan (origen y estructura) y los sesgos propios de los outputs que generan estas tecnologías, sobre todo en el periodismo de investigación a gran escala.
Para finalizar, el análisis versará sobre las preocupaciones y desafíos en el futuro de la práctica profesional, algo que se manifiesta en uno de los documentos y merece ser considerado. Algunas de esas preocupaciones son evitables por la simple intervención humana. También existen desafíos que implican cambios en las dinámicas y en las exigencias laborales, y que demandan la capacitación de los profesionales periodísticos. Al cierre de este artículo se esbozan algunas conclusiones que se desprenden del análisis realizado.
2. REVISIÓN BIBLIOGRÁFICA: TERMINOLOGÍA EN DEBATE
El periodismo y la prensa han sido siempre influenciados por los cambios tecnológicos. En particular, desde la competencia mediática y los desafíos de la Web 2.0, hasta la creación de una nueva forma de producir noticias -como el periodismo automatizado-, la transformación tecnológica ha propiciado que también se hable de periodismo asistido por ordenador -computer-assisted reporting- (Houston, 2014), de periodismo aumentado -augmented journalism- (Marconi & Siegman, 2017); y de periodismo de datos o periodismo basado en los datos -data journalism, data-driven journalism- (Parasie & Dagiral 2013; Vállez, Codina & Fabra, 2018). Además, entre las distintas nociones del uso de IA en el campo de la prensa suenan con fuerza la de periodismo automatizado, periodismo robot o bots redactores de noticias, así como el periodismo algorítmico (Diakopoulos, 2015).
Monti (2018) prefiere utilizar el término periodismo automatizado por considerarlo el que mejor describe la práctica de este tipo de práctica profesional y por evaluar que está entre los términos más utilizados por los académicos que estudian el tema. Para el autor, el periodismo automatizado es el uso de IA, por ejemplo, software o algoritmos, de manera de generar noticias automáticamente sin la contribución de seres humanos, excepto de aquellos programadores que han desarrollado el algoritmo. En este mismo sentido, Tuñez López y otros autores (2019) agregan que ha comenzado a instalarse ya en las tareas de redacción, en lo que se ha etiquetado como automated journalism o periodismo automatizado, el cual es definido como “procesos algorítmicos que convierten datos en textos narrativos informativos con intervención humana limitada o nula más allá de la programación inicial” (Carlson, 2015, p. 417) o el proceso de utilizar software o algoritmos para generar automáticamente noticias sin intervención humana, después de la programación inicial del algoritmo (Graefe, 2016).
2.1 La dimensión vincular y laboral humano-maquínica
Desde el 2012, la IA ha experimentado un auge que involucra tanto los avances técnicos como la atención que el tema ha recibido por parte de la producción académica, el diseño de políticas públicas y el desarrollo de inversiones (Perrault et al., 2019). Aun cuando la aplicación de IA en redacciones periodísticas resulte en fases tempranas, el interés por los contenidos informativos generados por computadores puede rastrearse casi una década atrás en temas como el clima, los deportes y las finanzas (Meehan, 1977; Glahn 1970). De hecho, con la creciente robotización de las economías industriales, la automatización ha probado ser un evento relevante a nivel global. Aunque vale decir que la automatización de noticias a gran escala no ha ganado terreno en las discusiones académicas, ni en los ámbitos profesionales, hasta la segunda década del siglo XX. Estas décadas coinciden con el momento en que varias agencias de noticias, organizaciones y algunos medios de comunicación han comenzado a redactar guías o códigos vinculados al uso de IA en redacciones.
Los algoritmos están cambiando de manera fundamental la creación, distribución y recepción de las noticias: el aprendizaje maquínico, así como la minería de datos, están transformando la actividad periodística. Bots de noticias conversan con audiencias enormes en los medios sociales, recibiendo y procesando un feedback imposible de imaginar y relevar por la mente humana. Los medios digitales prueban contenidos online con una mejor comprensión de lo que quieren las audiencias. Estas técnicas pueden funcionar creando sesgos y poniendo presión en la elaboración de contenido. De esa manera tensionan la búsqueda de calidad con la cantidad y el proceso de decisión editorial sobre qué es noticiable y qué es vendible (Diakopoulos, 2015; 2019).
En las grandes empresas noticiosas, los algoritmos crean miles de historias cada día casi sin interferencia humana en el proceso (automatización). Las noticias redactadas por robots han ampliado vastamente la cobertura en ciertos campos, sobre todo en finanzas y deportes. Por caso, AP produce desde 2016 noticias automatizadas sobre los reportes quincenales de cerca de cuatro mil compañías. AFP y Reuters, sus principales competidores en el área de las agencias de noticias, la siguen en esa práctica (Fanta, 2017; Graefe, 2016).
2.2 Implementación de automatización en noticias: el norte toma el control
El documento elaborado por WAN-IFRA releva cinco ejemplos que ilustran cómo la automatización ha sido implementada en redacciones de Suecia, Reino Unido, Estados Unidos, Finlandia y China3.
El caso de MittMedia y United Robots, en Suecia, muestra que la empresa, a cargo de más de 30 diarios en el mundo, desarrolló su propio sistema de NLG Rosalinda en datos sobre deporte, y llegó a publicar hasta 3000 textos automatizados por mes. Utiliza chat bots, generan open data y escriben informes sobre empresas quebradas. Desde 2017 comenzaron a producir artículos sobre oportunidades inmobiliarias, un servicio que probó ser efectivo en el paso de usuarios a suscriptores.
RADAR (Reporters and Data and Robots) es una agencia del Reino Unido, creada bajo la sociedad de Urbs Media y la Asociación Británica de Agencias de Prensa. Produce noticias locales para el Reino Unido. Su desarrollo fue apoyado económicamente por Google a través de su Iniciativa para el apoyo de Noticias Digitales. Su NLG se basa en un software de la empresa Arria. Los periodistas de Urbs media desarrollan templates con los que se escriben cientos de diferentes historias. Hacia 2019, RADAR se convirtió en una agencia local de noticias de suscripción que provee servicios a medios medianos y grandes pero locales. Manejan, además, el almacenamiento y distribución de open data; y algo más llamativo aún, un sistema de distribución por granularidad geográfica para que cada contenido generado termine en el usuario “indicado”. Este aspecto supone una cobertura local más comprensiva para los consumidores y para los productores de noticias, pero podría representar un riesgo en términos de discriminación a causa de sesgos algorítmicos no deseados o no advertidos.
En cuanto a la experiencia de The Washington Post en Estados Unidos, Heliograf fue desarrollado en 2016 para cubrir las Olimpíadas de Río. Este sistema es una tecnología de storytelling automatizado de tipo in-house -es decir, desarrollado íntegramente al interior del medio de comunicación-. Este sistema NLG genera actualizaciones de varias oraciones para los lectores en blogs, redes sociales, Alexa y a través del bot Messenger del diario. La automatización de noticias de The Washington Post es una parte de su modelo de negocios.
En el año 2017, en Finlandia, el equipo Immersive Automation lanzó un bot de noticias trilingüe que generaba noticias automatizadas sobre la elección municipal de Finlandia en sueco, finlandés e inglés. Valtteri basaba su generación de noticias en los valores noticiosos tradicionales y un set de open data del Ministerio de Justicia Finlandés. Es inusual, pues el bot definía autónomamente qué reportar y cómo. Sus elecciones son dirigidas por los datos sin estructuras predefinidas (templates). Con pretensión explícita de alejarse de la opacidad y generar transparencia, este sistema traduce información numérica a formatos textuales entendibles por los públicos, interesantes y amigables. Así, Valtteri produce información individualizada, acorde con la zona geográfica y el interés del lector. Posteriormente, fue puesto en marcha para procesar datos sobre estadísticas en crímenes. Es necesario aquí resaltar la relevancia de la edición humana posproducción de contenidos y la distorsión potencial en el uso de fuentes gubernamentales, en las estructuras preestablecidas de los inputs y en la recursividad lingüística que impacta en los usos del lenguaje en sociedad.
Por último, de la experiencia China se conoce poco. Las experiencias más conocidas son las de Tencent y Alibaba. Los dos sistemas de NLG de esas empresas son, respectivamente, Dream Writer y Writing Master (dos de los gigantes chinos en plataformas). Estas tecnologías producen noticias automatizadas recolectando datos de fuentes oficiales y de los servicios de inteligencia sobre clima, mercados y tránsito. A diferencia del caso finlandés, estos sistemas utilizan un editor humano para leer las noticias producidas antes de ser publicadas efectivamente.
A partir de las experiencias citadas, se observa un panorama de mayor avance en el hemisferio norte que debería afectar el posterior desarrollo o puesta en práctica de ciertas arquitecturas sesgadas -y por ende de productos noticiosos con criterios de filtrado cuestionables, desde el punto de vista idiosincrático y cultural-. Quizás una posible salida esté en desarrollarsoftwares propios y evitar el uso de NLG y bots preestablecidos en su programación por estas corporaciones que en muchos casos se enfocan más en resaltar las ganancias que genera obtener una mayor productividad, en la reducción en los tiempos de las redacciones y en los beneficios del microtargeting, más que en la calidad del producto periodístico en sí.
3. DILEMAS ÉTICOS DE LA AUTOMATIZACIÓN DE NOTICIAS
En este apartado se analizan los textos seleccionados, haciendo hincapié en los principales dilemas éticos y en los desafíos y las dificultades que enfrenta el periodista a la hora de utilizar el procesamiento maquínico para la elaboración, procesamiento y distribución de productos noticiables. Los documentos guardan un criterio de selección que parte de su especificidad, detalle y profesionalismo en la ejecución. El reporte titulado “News Automation: The rewards, risks and realities of ´machine journalism´” fue publicado en Alemania en marzo de 2019, por la WAN-IFRA (Lindén & Tuulonen, 2019). Una organización global cuya misión es proteger los derechos de los periodistas y editores que operan en medios de comunicación independientes. La guía cuenta con la participación de destacados especialistas en el área y explora experiencias exitosas de aplicación en el mundo. Busca ser un incentivo para el armado de futuros proyectos que incorporen a las IA, pero, sobre todo, remarca importantes dilemas a los que se enfrenta el periodista al trabajar con estas tecnologías. Sus 50 páginas se reparten en ocho secciones.
El segundo documento, elaborado por la agencia de noticias AP, se titula “The future of augmented journalism. A guide for newsrooms in the age of Smart machines” (Marconi & Siegman, 2017). Su particularidad reside en que si bien fue escrito por Marconi y Siegman, para su redacción se utilizaron -tal como se adelantó- varios sistemas de IA. Esto significa que múltiples secciones han sido “aumentadas” por máquinas, y resaltadas en el texto. Cuenta con insights de empresarios, académicos, expertos en el campo de la tecnología y el periodismo, y busca presentar al lector las herramientas básicas y la experiencia necesaria para tomar una decisión informada acerca de la implementación de IA en las redacciones. Su perfil es de corte más bien comercial. Se divide en tres secciones y es mucho menos específica y profunda que el documento de WAN-IFRA respecto de potenciales dilemas éticos que subyacen a la aplicación de IA, tal como se desarrolla en los próximos párrafos.
En la búsqueda por una clasificación de las dimensiones éticas que atañen a la aplicación de algoritmos, la propuesta de Mittelstadt y otros autores (2016) resulta de especial interés. En ella pueden observarse preocupaciones éticas de índole epistémicas y normativas a partir del uso y la aplicación de los algoritmos. Estas preocupaciones se asocian con potenciales errores que podrían involucrar a múltiples actores y, de esa manera, complicar la pregunta acerca de quién debería ser considerado responsable o estar obligado a rendir cuentas -o al menos explicar- la situación comunicativa generada. Será a la luz del trabajo mencionado que se observarán las principales preocupaciones éticas desprendidas del contenido de los documentos analizados.
3.1 Sesgos en la programación de los algoritmos
Definidos como una serie finita de normas descriptivas concretas, los algoritmos son la abstracción de un procedimiento que toma una entrada (input) y produce un resultado para lograr un producto definido (output) (Diakopoulos, 2015). Aplicados al periodismo, las formulaciones algorítmicas pueden priorizar, clasificar y filtrar información, incluso puede aplicarse como métricas de análisis de la audiencia, para determinar los temas que deben cubrirse y para, en función de la información obtenida o suministrada en bases de datos, escribir historias (Anderson, Bell & Shirky, 2014; Carlson, 2015). Además, resulta clave comprender que, por muchas razones, es difícil determinar el potencial y actual impacto ético de un algoritmo. Por ejemplo, identificar la influencia de la subjetividad humana en el diseño algorítmico por su configuración requiere, casi siempre, de una investigación a largo plazo. Aun con los recursos suficientes, los problemas y los valores subyacentes no serán aparentes hasta que surja un caso de uso problemático (Mittelstadt et al., 2016).
“El principal problema reside en la estructura modular de estos algoritmos, siempre teniendo en cuenta que la misma es programada por un ser humano” (Lindén & Tuulonen, 2019, p. 26). Así lo resalta el documento de WAN-IFRA cuando sugiere que los templates -o plantillas- que permiten expresar en oraciones simples un hecho individual, pueden generar un contenido objetivo, pero no siempre correcto:
Los sesgos provenientes de la construcción de contenido fáctico interpretados por un humano pueden llevar a producir declaraciones falsas, incorrectas, y a una falsa sensación de objetividad. Mientras más flexibles se muestren los componentes modulares de un Natural Language Generation System, mayor será la posibilidad de un error (Lindén & Tuulonen, 2019, p. 27).
Estas narrativas crean desviaciones sistemáticas del estándar de racionalidad y juicio impuesto por el editor humano. En esa línea, en la guía de AP se resalta la importancia de un organigrama que incorpore un editor humano luego de haber generado el contenido con el uso de IA. Mientras que la guía de WAN-IFRA resalta que el contexto cultural en el que se reciban esos contenidos será de vital importancia para la interpretación, la influencia y el efecto en las audiencias, problemática no abordada en el documento de AP.
3.2 Sesgos en los datos utilizados como input
Los factores epistémicos resaltan la relevancia de la calidad y la precisión de los datos que provocan una conclusión o un resultado alcanzado a través del uso de algoritmos que podrían dar forma a decisiones cargadas de moral que afecte a individuos, sociedades y hasta al medio ambiente. Las preocupaciones normativas se refieren explícitamente al impacto ético de las acciones impulsadas por algoritmos que incluyen la falta de transparencia (opacidad) de los procesos algorítmicos, ofreciendo resultados poco precisos y consecuencias sin una intencionalidad previamente establecida. Ambas dimensiones, junto con la distribución, desarrollo y puesta en marcha de algoritmos, hacen difícil identificar la cadena de eventos y factores que llevan a estos resultados e impiden, incluso, poder atribuir una responsabilidad moral por ello (Tsamados et al., 2020). De allí la importancia de observar el origen de los datos como inputs que deben ser procesados.
Qué datos se usan, y qué algoritmos se aplican conlleva una decisión editorial. Los datos deben ser confiables, conocer cómo se procesó y transmitió esa información, qué derechos se tienen para que sean publicados, si hubo cambios en la base de datos y de cuándo datan los mismos. Verificar errores. La transparencia como valor central (Lindén & Tuulone, 2019, p. 32).
Los datos se obtienen en su mayoría de open data sources4. Como se observa en el documento de WAN-IFRA: “Estos son proveídos por gobiernos e instituciones públicas de manera gratuita, son de fácil acceso, reutilizables y redistribuibles, pero cuentan con un inconveniente: muchas veces sus estructuras no son estandarizadas” (Lindén & Tuulone, 2019, p. 37). Es decir, que sugieren que las normas y valores de la institución son trasladados de alguna manera a estos sistemas automatizados.
Por su parte, en la guía desarrollada por AP no se aborda la problemática del origen y la calidad de los datos procesados, sino que se pone el foco en los resultados del uso y aplicación de estas tecnologías y su potencial eficacia en la optimización de las Natural Language Generation (datos a texto), Natural Language Understanding (texto a video o audio) y la automatización de generación de contenidos (robotización).
3.3 Sesgos generados en los outputs
La utilización de métodos que aplican IA genera muchas veces la idea de que ciertos patrones difíciles de detectar por la mente humana reducen significativamente los costos del periodismo de investigación. Esto se observa, por ejemplo, en el caso de los Panamá Papers5. Sin embargo, aplicar métodos más avanzados, técnicas de investigación con IA más sofisticadas, requerirá sortear problemas vinculados al tipo de periodismo de investigación que se quiere llevar adelante, qué problemas particulares quieren ser abordados. Esto ocurre porque cada historia requiere entrenar complejos modelos de procesamiento de datos, lo cual resultará difícil de ser amortizado en términos monetarios por las empresas periodísticas.
Además, y conectado al problema de los datos a los que se accede, muchos suelen ser inaccesibles y están en manos de gobiernos o entidades privadas. Esto deriva en procesos poco transparentes que involucran la negociación, el chantaje y la compra de los datos, sin quedar limitado el manejo de información sensible y privada. Además, los factores sociopolíticos que otorgan noticiabilidad a cierto número de hechos son difíciles de codificar en términos computacionales. El potencial más visible y asequible de las IA en tareas de investigación periodística descansa en la preparación y puesta a punto de set de datos como extracción y chequeo cruzado de bases (Diakopoulos, 2019).
3.4 Preocupaciones para la praxis periodística
La guía de AP para redacciones en la era de máquinas inteligentes se plantea dos preocupaciones fundamentales respecto del uso de IA: automatización y tecnologías cognitivas. La primera tiene que ver con
el riesgo asociado a la generación de noticias vía algoritmos que no estén previamente chequeadas. Evitar bias, o sesgos realizando Overcoaching. Esto quiere decir, una tarea de constante revisión de la data de entrenamiento del machine learning utilizado (Marconi & Siegman, 2017, p. 3)6.
Dicho documento también enuncia brevemente la necesidad de verificar las fuentes y su confiabilidad, pero pareciera enfocar más la atención en la acción humana sobre el entrenamiento maquínico.
La segunda preocupación que señala la guía de AP es:
La potencial disrupción de los flujos de trabajo en redacciones. Las IA necesitan verificación y asistencia humana. En la praxis de la agencia Associated Press se ha verificado una reducción del veinte por ciento en los tiempos utilizados para la redacción de reportes de ganancias para empresas, por ejemplo, lo cual llevaría a los periodistas a poder utilizar ese tiempo en trabajo cualitativo (Marconi & Siegman, 2017, p. 4).
Esa presunción tiene su lado cuestionable, pues al mismo tiempo se requerirá de editores de IA, personal especializado en data science, moderadores de redes sociales, alimentación y supervisión de las plantillas que utilizan los algoritmos programados en la IA y mantenimiento de los sistemas. Es decir, un trabajo que supone la participación de un experto calificado que se formó en otro tipo de área, antes que la de un trabajador abocado a la tarea propiamente periodística. Supone algo así como un periodismo multitasking que conduce a la tercera preocupación planteada por el documento de AP. La misma tiene que ver con la ampliación de la brecha en las habilidades requeridas a los profesionales: tener laboratorios de I+D en las redacciones, contar con Stoytellers, Community Managers, Data scientist y periodistas computacionales (programadores con formación periodística) puede llevar a que la profesión tradicional se convierta en subsidiaria de las tareas de estos nuevos puestos de trabajo.
Vale decir, como cierre, que si bien estas preocupaciones resultan relevantes en los términos en que son planteadas en el documento de AP, es necesario plantear se considera poco exhaustivo el análisis de las implicancias éticas que conllevan estos cambios en las prácticas periodísticas en redacciones.
4. CONSIDERACIONES FINALES
Las decisiones y las elecciones que previamente eran tomadas por humanos están siendo crecientemente delegadas, en muchos ámbitos y actividades de la vida social, a los algoritmos. Los ejemplos exceden lo expuesto hasta aquí. De allí que la relevancia de la temática y el debate acerca de las implicancias éticas que provoca el uso de estas tecnologías a través de IA vaya más allá del campo periodístico. Tal como plantean Mittelstadt y otros autores (2016):
Los algoritmos de perfilado y clasificación determinan cómo se les da forma y maneja a individuos y grupos. Existen también sistemas de recomendación que dan a los usuarios directivas acerca de cómo y cuándo ejercitar, qué comprar, qué ruta tomar, y a quién contactar. La minería de datos se prueba eficiente en la comprensión de flujos emergentes de data conductual generada por la ‘Internet de las Cosas’ y los proveedores de servicios online continúan mediando la forma en que se accede a la información con personalización y filtrado algorítmico (p. 1).
Como estos ejemplos sugieren, la forma en que percibimos y comprendemos nuestro ambiente e interactuamos está crecientemente mediada por algoritmos.
A partir de lo expuesto en el desarrollo del artículo, se asume que los efectos de la automatización son -y serán- cada vez más profundos, abarcando implicancias de orden social, práctico, sociopolítico, psicológico, legal y ocupacional. Aun así, los periodistas no parecieran estar aún en riesgo de ser reemplazados. Con los algoritmos en sus manos también pueden ampliar sus oportunidades y contar historias de diferentes maneras. De allí que el híbrido humano-algoritmo emerja como la manifestación de una tensión entre los imperativos comerciales y los principios periodísticos (Diakopoulos, 2019).
La principal hipótesis con la que se trabajó aquí supuso entender que no existen aún documentos que consideren la aplicación de estas tecnologías de manera responsable y de acuerdo con las normas deontológicas del periodismo. Algo que se observó, fundamentalmente, en el enfoque de la guía producida por AP, cuya foco de atención está sostenida en la relevancia de estas tecnologías, en los impactos positivos en términos económicos y en variables que tienen que ver con el tiempo invertido en producción de contenidos, lo cual plantea el desafío potencial de modificar los flujos de producción al interior de las empresas periodísticas a base de inversiones que tengan en cuenta el tipo de personal que deberá contratarse, los organigramas y las nuevas tareas profesionales que se avizoran a partir del desarrollo tecnológico descrito.
En el campo legal, los debates sobre la autoría, la firma de piezas periodísticas y las responsabilidades ulteriores continúan. Una de las temáticas más controversiales y aún poco exploradas es la autoría algorítmica. En torno de ello se plantea si las políticas que evalúan la divulgación de ciertas informaciones deben ajustarse a estas nuevas prácticas. Y se discute, además, si periodistas y algoritmos (o sus programadores) deben ser tratados como sujetos con los mismos derechos y obligaciones legales (Montal & Reich, 2017). También se pone en debate si debe exigirse o tender a una mayor transparencia de estos sistemas, que muchas veces no son diseñados in house, sino comprados a las grandes corporaciones y, por lo tanto, marcados por sesgos preestablecidos que no pueden pasarse por alto. Los algoritmos son éticamente desafiantes, no solo por la escala de análisis y la complejidad que supone la toma de decisiones, sino por la falta de certeza y opacidad que conllevan. Los algoritmos requirieron tradicionalmente de reglas y pesos para ser individualmente definidos y programados a mano. Mientras que no es menos cierto que en muchos casos los algoritmos se apoyan -cada vez más- en sus propias capacidades de aprendizaje -machine learning- (Tutt, 2017).
Por otro lado, resulta fundamental no perder de vista aquellas implicancias éticas que se resaltan con mayor preocupación en el reporte o documento guía de WAN-IFRA, aunque no cuenten con la especificidad y la profundización necesarias para un abordaje satisfactorio que prevea la aplicación de IA de acuerdo a las normas deontológicas que debieran regir la práctica periodística. Una mayor claridad en la terminología utilizada será imperante. La confusión entre algoritmos, NLG, sistemas IA, entre otros, puede resultar discursivamente conveniente a la hora de debatir estas problemáticas. Lo mismo ocurre con la opacidad de los códigos de programación y los algoritmos utilizados para los NLG y NLU. La recursividad del lenguaje dominante, los efectos discriminatorios de la segmentación geográfica para la distribución de contenidos y los tipos de inputs utilizados son apenas la punta del iceberg en el debate ético acerca del rol periodístico en medio de las transformaciones descritas. Los algoritmos son tan propensos a los sesgos como los humanos, pero el efecto puede amplificarse si de circulación informativa se trata. Es un deber del periodista velar por una ética intersubjetiva, que busque empoderar al otro en favor de mejorar la vida pública y que contribuya a la consolidación de una democracia tendiente a marcos deliberativos más responsables. Para ello, la producción de contenido buscando una correcta construcción de narrativas bajo la operación de estos sistemas (entre los ya existentes y humanos al cien por ciento) será de vital importancia.
Finalmente, el tratamiento de los contenidos periodísticos como commodities es otro gran tema que debe tenerse en cuenta. La producción informativa debería ser regida por tradiciones en las que las normas éticas sean un horizonte procedimental, no impuestas por una lógica de mercado o económica. Es que ya no se trata del futuro de la industria periodística, puesto que podría afirmarse que tal cosa no existe más -al menos en la forma en que se concebía, por decir un periodo tentativo de cambios, en las décadas finales del siglo XX-. Y si bien debería quedar claro que también en el pasado anidan controversias y debates sobre los modos de ejercer el periodismo, no es menos cierto que el paisaje del periodismo en el siglo XXI ha nublado algunas certezas profesionales y plantea desafíos que ya están aquí y amenazan a la producción noticiosa equitativa y responsable.