Ricardo Porto
Nota publicada en elDial.com
El 23 de noviembre de 2021 la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, UNESCO, adoptó la Recomendación sobre la Ética de la Inteligencia Artificial. Se trata del primer acuerdo internacional referido a esta tecnología. El texto, entre otras cosas, establece un conjunto de valores y principios orientados a la construcción de la infraestructura jurídica necesaria para garantizar un desarrollo saludable de la inteligencia artificial, desde un abordaje de respeto a los derechos humanos.
Pocos días después, la Oficina Regional para América Latina y el Caribe de la UNESCO convocó a una reunión para informar sobre la citada recomendación, con el propósito de que los países del continente aplicaran sus principios en el orden nacional. Del encuentro participaron equipos de técnicos de diferentes países, entre ellos, de la República Argentina.
Por último, el 1 de junio de 2023, la Subsecretaría de Tecnologías de la Información de nuestro país dictó la Disposición 2/2023, por la cual se aprobaron las Recomendaciones para una Inteligencia Artificial Fiable. Dicha medida, entre otros aspectos, contempla expresamente las directrices de la citada recomendación emitida por la UNESCO.
En este orden de ideas, el objeto del presente trabajo es realizar un conjunto de reflexiones, específicamente sobre el punto 9 de la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, denominado “Ámbito de Actuación 9. Comunicación e Información”. Lo interesante del texto es que proporciona una serie de pautas que se corresponden con los debates actuales sobre la regulación de las plataformas audiovisuales, lo que permite apreciar cómo se va perfilando el diseño de los nuevos modelos regulatorios de los medios de comunicación.
Ámbito de Actuación 9. Comunicación e Información
En primer lugar, corresponde presentar los 4 párrafos del mencionado documento elaborado por la UNESCO. Posteriormente, se realizarán diversas observaciones sobre algunos de los puntos que se consideran más relevantes.
112. Los Estados Miembros deberían utilizar los sistemas de IA para mejorar el acceso a la información y el conocimiento. Para ello, pueden, por ejemplo, apoyar a los investigadores, las universidades, los periodistas, el público en general y los desarrolladores, a fin de mejorar la libertad de expresión, las libertades académicas y científicas y el acceso a la información, así como aumentar la divulgación proactiva de los datos y la información oficiales.
113. Los Estados Miembros deberían garantizar que los actores de la IA respeten y promuevan la libertad de expresión y el acceso a la información en lo que respecta a la generación, moderación y conservación automáticas de contenidos. Marcos adecuados, incluso reglamentarios, deberían propiciar la transparencia de los operadores de comunicación e información en línea, velar por que los usuarios tengan acceso a puntos de vista diversos y prever procesos de notificación rápida a los usuarios sobre los motivos de la eliminación u otro tratamiento de los contenidos, así como mecanismos de recurso que permitan a los usuarios solicitar reparación.
114. Los Estados Miembros deberían invertir en competencias digitales y de alfabetización mediática e informacional y promoverlas, a fin de reforzar el pensamiento crítico y las competencias necesarias para comprender el uso y las implicaciones de los sistemas de IA, con miras a atenuar y contrarrestar la desinformación, la información errónea y el discurso de odio. Una mejor comprensión y evaluación de los efectos tanto positivos como potencialmente perjudiciales de los sistemas de recomendación debería formar parte de esos esfuerzos.
115. Los Estados Miembros deberían crear entornos propicios para que los medios de comunicación tengan los derechos y recursos necesarios para informar eficazmente sobre las ventajas y los inconvenientes de los sistemas de IA, y también alentar a los medios de comunicación a que hagan un uso ético de estos sistemas en su trabajo.
Libertad de expresión y acceso a la información
El primer aspecto que puede señalarse es que la recomendación sugiere asegurar tanto la libertad de expresión como el acceso a la información. Se trata de dos derechos distintos, de quien da y de quien recibe información. Esta propuesta conduce a dejar atrás el modelo tradicional que regulaba a los medios de comunicación, que procuraba centrarse, casi exclusivamente, en el emisor de información. Las doctrina de la libertad de prensa estructurada sobre la base de la obra On Liberty, de John Stuart Mill y los argumentos de John Milton, fundamentalmente en su alegato Areopagítica, sobre los cuales se desarrolla la teoría del mercado libre de ideas, en donde la regulación pública era la única amenaza a la libertad de expresión, parece no dar respuesta a los desafíos de la era de la Inteligencia Artificial.
La exigencia de la Recomendación a los Estados por promover la alfabetización mediática a fin de reforzar el pensamiento crítico para contrarrestar la desinformación, la información errónea y el discurso de odio, problemas derivados del mal uso de la libertad de expresión, que se profundiza por la utilización de las tecnologías de la información y la comunicación, evidencia la necesidad de atender al derecho de las personas a estar debidamente informadas. Se trata de preservar un ámbito institucional de debate público que se corresponda con los valores de una sociedad democrática.
En la misma inteligencia, el aliento a los medios de comunicación de hacer un uso ético de la Inteligencia Artificial se corresponde con el propósito de asegurar el derecho de las personas a estar correctamente informadas.
Pluralismo y diversidad de voces
Una mención especial corresponde al párrafo de la mencionada Recomendación que exige a los operadores de comunicación e información en línea velar por que los usuarios tengan acceso a puntos de vista diversos, lo cual pone de manifiesto la intención de asegurar el pluralismo.
Al respecto, cabe señalar que las plataformas digitales, sobre la base de la Inteligencia Artificial, adoptan diferentes conductas, tales como excluir algunas voces, jerarquizar ciertos contenidos, recomendar a los usuarios determinada información, reducir el alcance de algunas expresiones y etiquetar a ciertos comunicadores, entre otras.
Todas estas conductas, más allá de ciertas justificaciones, pueden afectar la libertad de expresión, el pluralismo y la diversidad de ideas. Incluso algunas medidas que pueden parecer inocuas, como por ejemplo las recomendaciones que hacen las plataformas a los usuarios, sin perjuicio de los evidentes aspectos positivos, conduce a que estos solo reciban información de su preferencia, con lo cual se forman burbujas de personas que comparten valores similares. Desde luego, esto lleva a una suerte de fragmentación social, con lo cual se afecta seriamente el pluralismo y la diversidad de voces. Tema de central importancia en la regulación democrática.
Incluso hay algó aún más complejo. Existen algunas plataformas que parecen desear un mundo sin noticias. Esto se debe a varias causas. Por caso, la exigencia de los medios de comunicación tradicionales a las plataformas de exigir un pago por el uso de sus noticias, las responsabilidades que le asignan ciertas leyes, la demanda de los consumidores que exigen entretenimiento y los modelos de negocios de algunas plataformas que proponen una realidad tipo Disneylandia, como un juego, alejada del mundo real, entre otras causas.
Todas estas conductas de las plataformas inciden en el debate público y, en consecuencia, afectan el modelo tradicional de democracia, que supone ciudadanos informados sobre los asuntos de interés público, que toman decisiones racionales.
La pérdida del monopolio regulatorio del Estado
Se ha dicho que si bien es cierto que Google, Amazon, Facebook, Twitter y otras plataformas no son países, no caben dudas que son superpotencias. En ese marco, las decisiones que toman estas compañías en materia de libertad de expresión y acceso a la información suelen tener mayor incidencia que las leyes que dictan los países o las resoluciones emanadas de organismos internacionales, tales como la ONU.
Esta circunstancia pone de manifiesto un hecho fáctico. La afectación de la libertad de expresión y el derecho a la información pueden derivarse de leyes autoritarias o de ciertas determinaciones de las multinacionales de la comunicación. En este orden de ideas, los Relatores para la Libertad de Expresión de la ONU, OEA, Europa y África, el 10 de julio de 2019, publicaron la declaración conjunta denominada: “Desafíos para la Libertad de Expresión en la Próxima Década”, en donde, entre otras cosas, se advierte que las amenazas a la libertad de expresión y al acceso a la información pueden provenir tanto de regulaciones públicas restrictivas, como también por el abuso de poder de parte de los gigantes de la comunicación. En esta inteligencia, el documento de los Relatores, además de condenar enfáticamente todo tipo de regulación estatal que pueda afectar la libertad de expresión, también afirma que las plataformas digitales, con un enorme poder concentrado en unas pocas empresas, pueden afectar el pluralismo y la diversidad de voces. Desde esta perspectiva, entonces, puede advertirse que existen dos entes reguladores. El sector público y el sector privado.
Asimismo, tiene lugar otra mirada del enfoque regulatorio que postula un modelo de múltiples partes interesadas, públicas y privadas, en la creación normativa de las TIC. Por caso, en el trabajo “Estándares para una Internet libre, abierta e incluyente. 2017” de la Relatoría de Libertad de Expresión de la OEA, expresamente se afirma que: “La Relatoría destaca la importancia del proceso multipartito y democrático en la gobernanza de Internet, en el que prevalezca el principio de cooperación reforzada para que todos los puntos de vista relevantes puedan ser tenidos en cuenta y ningún actor pueda atribuirse su regulación en exclusividad”. (el subrayado me pertenece).
Ciertamente, que el Estado pierda el monopolio regulatorio es un tema de singular importancia. Desde luego, esto no significa algo necesariamente disvalioso. Por el contrario, esta apertura legislativa puede contribuir a generar una normativa más plural, equitativa y democrática.
Por caso, en la citada Disposición 2/2023, dictada por la Subsecretaría de Tecnologías de la Información de nuestro país, se afirma que la participación de las diferentes partes interesadas es necesaria para garantizar enfoques inclusivos en la gobernanza de la IA. Entre estas se encuentran los gobiernos, las organizaciones intergubernamentales, la comunidad técnica, la sociedad civil, los investigadores y los círculos universitarios, los medios de comunicación, las empresas privadas y los organismos de derechos humanos, entre otros.
Todo ello permite apreciar que los nuevos modelos regulatorios del sector se alejarán de los esquemas tradicionales, generando una normativa creada de forma más abierta, plural, coral y participativa.
Regulación pública, autorregulación privada, co-regulación
La literatura especializada sobre regulación de las TIC hace referencia a la necesidad de que la normativa del sector contemple un conjunto de aspectos que deben ser objeto de regulación pública, materias que pueden ser autorreguladas por las empresas privadas, y, finalmente, un espacio de co-regulación institucional.
Existen varias iniciativas en esta orientación que procuran alcanzar este tipo de modelo regulatorio. Una de ellas la impulsa -una vez más- la UNESCO. En efecto, en el seno de esta organización, en septiembre de 2022, se inició un proceso de consulta y debate entre diferentes actores del mundo de las TIC que condujo a un documento de trabajo que está siendo presentado en diversos foros. Se denomina “Directrices para regular las plataformas digitales. Un enfoque de múltiples partes interesadas para salvaguardar la libertad de expresión y el acceso a la información”. El objetivo central de las directrices es propiciar marcos regulatorios que aseguren esos derechos, a la vez, que eviten la difusión de contenidos nocivos que puedan afectar la democracia y los derechos humanos.
Teniendo presente la complejidad del tema, en las citadas directrices se plantean exigencias a los Estados y a las plataformas. A los primeros, el dictado de normas que aseguren la libertad de expresión, el acceso a la información, el pluralismo y la diversidad de voces. Por su parte, a las plataformas se les demanda un conjunto de medidas específicas. Entre ellas, respetar los derechos humanos en la moderación y curación de contenidos; transparencia en todas sus políticas y sus medidas y empoderar a los usuarios.
La Recomendación sobre la Ética de la Inteligencia Artificial, adoptada por la UNESCO, en noviembre de 2021, en su punto 9, apartado 113, recorre un camino similar. Por caso, exige a los Estados garantizar que los actores de la IA respeten y promuevan la libertad de expresión y el acceso a la información en lo que respecta a la generación, moderación y conservación automáticas de contenidos. Por otro lado, destaca que los marcos regulatorios deberían propiciar la transparencia de los operadores de comunicación e información en línea, velar por que los usuarios tengan acceso a puntos de vista diversos y prever procesos de notificación rápida a los usuarios sobre los motivos de la eliminación u otro tratamiento de los contenidos, así como mecanismos de recurso que permitan a los usuarios solicitar reparación.
En definitiva, puede apreciarse cómo desde diferentes miradas se proponen nuevos modelos regulatorios participativos que combinen regulación pública, autorregulación privada y coregulación.
Qué son las Plataformas
Desde luego, más allá de estos acuerdos generales, no existe consenso en torno a las cuestiones específicas de esta nueva legislación. En verdad, no existe consenso en la propia definición de las plataformas audiovisuales, ni en su peculiar naturaleza jurídica.
Hubo una primera oleada regulatoria en la cual la legislación, la doctrina y la jurisprudencia mayoritaria de la región las definió como intermediarios, sin responsabilidad editorial.
En nuestro país, en 2014, la Corte Suprema de Justicia de la Nación, en el caso Belén Rodríguez, señaló que Google y Yahoo eran intermediarios que se limitaban a transmitir información de terceros. Específicamente, los consideró una suerte de biblioteca moderna. Desde esa mirada, se afirmó que no eran responsables por la información que difundían. No poseían, en consecuencia, responsabilidad objetiva; por lo cual no tenían el deber de verificar lo que circulaba por sus redes. Solo cuando eran notificados sobre algún contenido cuestionado que estaban difundiendo nacía su obligación de restringirlo. De este modo, se consagraba la responsabilidad subjetiva de las plataformas.
Esta concepción estuvo en el centro de la escena durante mucho tiempo. Las plataformas eran consideradas intermediarias; se trataba de caños que se limitaban a transportar información que no generaban. Todo esto se encuadraba en el mantra que sostenía que los algoritmos eran neutrales. El eje central de esta postura es que no hay en estas empresas criterio editorial.
Con el tiempo las cosas fueron cambiando y otra mirada comenzó a imponerse a estas plataformas. Para algunos se trataba de modernos medios de comunicación. Esta idea fue planteada por diversos autores, y, lo que es más notable, por algunos abogados de las propias plataformas en los EE.UU, que, para defenderse en los tribunales, sostuvieron que la facultad de discreción editorial era un derecho de libertad de expresión, independiente del medio tecnológico utilizado y debía contar con la protección establecida en la Primera Enmienda. Para reforzar su postura recordaban que sus políticas de remover por sí mismos contenidos pornográficos o discursos de odio, representaba, en cierto modo, una actividad editorial.
Desde otra perspectiva, una tercera categorización de las plataformas que se está empezando a formular considera a estas empresas bajo la luz de la doctrina del foro público. Esta tesis la desarrolló en los 70 el Juez de la Corte Suprema de los Estados Unidos William Brennan, cuando dijo que la libertad de expresión requiere que existan foros públicos en donde ejercerse, y ello puede tener lugar en las frecuencias de radio y televisión, en las plazas públicas, y en lugares no tradicionales, incluso en propiedades privadas. Luego, la Corte de ese país va a considerar a los shoppings como foros públicos, en donde el derecho de propiedad de sus titulares no puede llegar tan lejos como para frustrar la libertad de expresión de un grupo de manifestantes que portaban carteles.
Actualmente hay fallos en los EEUU que consideran a las redes sociales como Facebook y Twitter la plaza pública moderna, uno de los lugares más importantes para el intercambio de diversos puntos de vista. En esa línea, la jueza federal de Nueva York, Naomí Buchwald, dijo que Trump no podía bloquear usuarios por disidencias políticas en Twitter dado que es un espacio interactivo, un foro público en donde rige la Primera Enmienda.
En este orden de ideas, considerar a los intermediarios a la luz de la doctrina del foro público permitiría armonizar valiosamente regulación pública, autorregulación privada y co-regulación. A su vez, esta tarea de armonización podría tener como base la premisa del Sistema Interamericano de Derechos Humanos, que condena el abuso de controles públicos o privados encaminados a afectar la libre circulación de información.
América no es Europa
Por último, un comentario final a las propuestas internacionales de modelos regulatorios en donde están en juego derechos tales como la libertad de expresión y el acceso a la información, como es la Recomendación sobre la Ética de la Inteligencia Artificial, elaborada por la UNESCO.
Sobre el particular es necesario advertir las diferencias existentes entre la Convención Americana sobre Derechos Humanos y la Convención Europea de Derechos Humanos respecto de los mencionados derechos. En efecto, el instrumento americano es mucho más generoso que el europeo en materia de libertad de expresión. Por caso, nuestra convención, luego de garantizar ese derecho, dispone que el mismo no puede estar sujeto a censura previa, sino a responsabilidades ulteriores, las que deben estar fijadas por ley. Además, condena diversos mecanismos indirectos de censura al establecer que “No se puede restringir el derecho de expresión por vía o medios indirectos, tales como el abuso de controles oficiales o particulares de papel para periódicos, de frecuencias radioeléctricas, o de enseres y aparatos usados en la difusión de información o por cualesquiera otros medios encaminados a impedir la comunicación y la circulación de ideas y opiniones”.
Por su parte, la Convención Europea de Derechos Humanos adopta una postura más débil en materia de libertad de expresión, dado que no existe una condena expresa a la censura previa. Asimismo, en el artículo 10, en donde se garantiza ese derecho, se afirma que “El presente artículo no impide que los Estados sometan a las empresas de radiodifusión, de cinematografía o de televisión a un régimen de autorización previa”. Luego agrega que “El ejercicio de estas libertades, que entrañan deberes y responsabilidades, podrá ser sometido a ciertas formalidades, condiciones, restricciones o sanciones, previstas por la ley, que constituyan medidas necesarias, en una sociedad democrática, para la seguridad nacional…”. Por cierto, algunas de estas medidas podrían ser consideradas mecanismos indirectos de censura según la Convención Americana.
Estas diferencias en la concepción de la libertad de expresión y el derecho a la información deben ser tenidas en cuenta por parte de los legisladores nacionales al momento de incorporar recomendaciones de organismos internacionales, dado que las mismas deben compatibilizarse con los principios y valores de las respectivas convenciones.
En síntesis, el punto 9 de la Recomendación sobre la Ética de la Inteligencia Artificial de la UNESCO, denominado “Ámbito de Actuación 9. Comunicación e Información” ofrece una serie de pautas que se vinculan directamente con los debates actuales sobre la regulación de las plataformas audiovisuales. Todo ello permite apreciar el surgimiento de nuevos modelos regulatorios en materia de tecnologías de la información y la comunicación, que van dejando atrás conceptos e institutos que estuvieron presente durante siglos en la literatura jurídica del sector.
