En esta oportunidad hablaremos de cómo los algoritmos, hasta los que aparentan ser los más insignificantes, pueden provocar daños terribles en la vida de las personas. Las consecuencias de no supervisar el contenido que estos algoritmos sugieren a los usuarios dentro de las redes sociales han dado un ejemplo trágico en los Estados Unidos.
El Tribunal de Apelaciones del Tercer Circuito de Estados Unidos recientemente en el caso “Anderson v. Tiktok”, hizo parcialmente responsable a Tik Tok por la muerte de una niña de 10 años que imitó un desafío de uno de los videos que le recomendó el algoritmo de la plataforma.
La tragedia que dio origen a esta sentencia involucra a una niña de diez años que falleció tras intentar replicar el peligroso “Blackout Challenge” que apareció en su feed1 personalizado “For you page” de TikTok.
Esta peligrosa práctica consiste en un reto viral en el que los participantes intentan aguantar la respiración hasta provocar el desmayo, incluso utilizando sogas o cinturones para provocar la autoasfixia. La niña intentó replicar el reto con un cinturón y se provocó su muerte. Ante esto, su madre demandó a la plataforma, argumentando que el algoritmo de TikTok había recomendado activamente este contenido peligroso a una menor de edad, ya que su hija no buscó ese contenido sino que fue directamente puesto en su feed por el algoritmo de recomendación de Tik Tok.
Esta sentencia es bastante relevante en los Estados Unidos ya que ha dado un giro importante en la interpretación sobre la responsabilidad por el contenido publicado por terceros en las plataformas de las redes sociales.
Regulación de las plataformas online en Estados Unidos.
Antes de adentrarnos en los argumentos que llevaron al tribunal a hacer responsable a Tik Tok por su algoritmo de recomendación, es importante hacer un repaso de la legislación aplicable a las plataformas de redes sociales en los Estados Unidos.
Para ello, es de consulta obligatoria la Communications Decency Act (CDA), promulgada en 1996 como parte de la Telecommunications Act, fue una legislación de los Estados Unidos diseñada para regular el contenido on line, especialmente con el objetivo de proteger a los menores de la exposición a materiales considerados “obscenos” o “indecentes”. El problema que trajo esto es que los términos “obsceno” e “indecente” son conceptos sumamente amplios y dependen de la mirada subjetiva del intérprete.
Una parte crucial de la CDA es la Sección 230, que otorga inmunidad a los proveedores de servicios on line respecto al contenido generado por terceros. Esto significa que tales proveedores no pueden ser considerados responsables por el contenido publicado por sus usuarios, buscando así un entorno más libre para la expresión online. Esta sección ha sido fundamental para la industria y el desarrollo de plataformas digitales y redes sociales en los Estados Unidos.
En 1997, la Corte Suprema de los Estados Unidos, en el caso Reno v. ACLU2, determinó que las disposiciones sobre “indecencia” de la CDA violaban la Primera Enmienda, que protege la libertad de expresión. Como resultado, estas partes fueron eliminadas, aunque la Sección 230 se mantuvo intacta.
Hasta ahora, la sección 230 ha gozado de una imperturbable estabilidad. Tal es así, que la inmunidad otorgada ha permitido el crecimiento exponencial de las plataformas digitales, aunque también ha llevado a debates sobre la moderación del contenido y la responsabilidad de las plataformas respecto a la desinformación y los discursos de odio.
El fundamento es que no se podría hacer responsable a las plataformas por todo el contenido que sus usuarios publican sin afectar la libertad de expresión. Si a los propietarios de las plataformas de redes sociales se les hiciera responsable por el contenido publicado por terceros, esto llevaría implícito un fuerte control y censura previa a la libertad de expresión de los usuarios. Además, desincentivaría la inversión en esta industria por temor a los problemas legales. Al menos, estos fueron algunos de los argumentos para mantener la inmunidad de las plataformas de redes sociales.
El algoritmo de recomendación es contenido propio.
Los algoritmos de recomendación en redes sociales son sistemas complejos que determinan qué contenido se muestra a los usuarios en sus feeds. Estos algoritmos utilizan una variedad de datos y señales para personalizar la experiencia del usuario, buscando que el contenido que ven sea relevante y atractivo.
En el caso que nos ocupa se ha hecho una importante distinción entre lo que se considera contenido de terceros y contenido propio. La sentencia establece una distinción entre dos tipos de responsabilidad: Por un lado, la mera publicación de contenido de terceros y por otro las acciones propias de la plataforma. En el primer supuesto, TikTok mantiene su inmunidad respecto a la existencia del contenido en sí. En cambio, el tribunal determina que la plataforma puede ser responsable por: a) La distribución consciente de contenido peligroso después de conocer sus efectos nocivos y b) Las recomendaciones específicas realizadas por su algoritmo.
El Tribunal basó su decisión en el caso de la Corte Suprema, Moody v. NetChoice, LLC. En ese caso, la Corte Suprema dictaminó que los algoritmos de las plataformas de redes sociales que reflejan “juicios editoriales” sobre la recopilación de contenido de terceros constituyen un “producto expresivo” de la plataforma. Entonces, concluye el tribunal que si el filtrado del contenido a través de algoritmos expresivos se considera un discurso de la propia plataforma según la Primera Enmienda, entonces también debe considerarse como un discurso propio según la Sección 230.
En consecuencia, dado que el algoritmo de TikTok selecciona y organiza contenido de terceros para presentarlo en la página “For you”, la corte concluyó que esto es una “actividad expresiva” de TikTok y por lo tanto, su propio discurso. Si el contenido se hubiera visto a través de la función de búsqueda de TikTok, el fallo podría haber sido diferente.
Ejemplo de como funciona un Algoritmo de Recomendación.

El algoritmo de recomendación de una red social es como un asistente personal digital que aprende sobre tus gustos. Imaginá que cada vez que interactuás con contenido – ya sea dando “me gusta”, compartiendo publicaciones o simplemente pasando tiempo viendo ciertos videos o fotos – el algoritmo toma nota. Es como si estuviera armando un perfil de tus intereses.
Luego, busca a otros usuarios que tienen gustos parecidos a los tuyos. Por ejemplo, si a vos y a otras personas les gustan videos de cocina italiana y fotografía de paisajes, el algoritmo lo registra. Es similar a cuando un amigo te dice “si te gustó este restaurante, te va a encantar este otro”.
Con toda esta información, el algoritmo selecciona contenido que cree que te podría interesar, lo filtra para asegurarse de que sea apropiado, y lo muestra en tu feed. Cada vez que interactuás con estas recomendaciones, el algoritmo aprende más sobre tus preferencias, mejorando sus sugerencias futuras. Es un ciclo continuo de aprendizaje y adaptación basado en tus interacciones. Los Algoritmos de Recomendación que usan las redes sociales son tan complejos que obtienen datos y crean patrones que son imperceptibles para nosotros. Ahí es cuando se puede volver peligroso. ¿Cómo el algoritmo de Tik Tok llegó a la conclusión de que el desafío del “Black Out” era un contenido adecuado para una niña de 10 años?
La Protección Digital de niños, niñas y adolescentes en Argentina
Argentina carece de una legislación específica sobre la responsabilidad civil derivada del uso de redes sociales. En cambio, se recurre a principios generales del Código Civil y Comercial y la Ley N° 24.240, que protege a los consumidores. Además, los usuarios deben aceptar términos y condiciones redactados unilateralmente por las plataformas, creando así un contrato de adhesión. Esto significa que los usuarios no pueden negociar cláusulas colocándolos en una posición vulnerable.
Respecto de los NNyA, se ha tratado este tema en un interesante trabajo3, así se puede decir que el marco normativo argentino contempla diversos instrumentos legales para la protección de los derechos personalísimos de niños, niñas y adolescentes en el entorno digital. Además de las garantías constitucionales y convencionales, el ordenamiento jurídico incluye disposiciones específicas en el Código Civil y Comercial, que aborda aspectos como los derechos personalísimos, la dignidad, la imagen, la intimidad y la responsabilidad parental. La legislación también contempla mecanismos de tutela preventiva y anticipatoria, así como medidas de reparación y sanción disuasiva.
Así, el sistema legal se complementa con un conjunto de leyes especiales, entre las que destacan: la Ley 11.723 sobre Propiedad Intelectual; la Ley 20.056 que regula la difusión de información sobre menores; la Ley 24.240 de Defensa del Consumidor; la Ley 25.326 de Protección de Datos Personales; y la Ley 26.032 de Servicios de Internet. En este contexto, la Ley 26.061 de Protección Integral de NNyA, modificada por la Ley 27.576,adquiere una particular relevancia ya que establece la creación de interfaces tecnológicas para brindar información, asesoramiento y prevenir vulneraciones de derechos contra NNyA.
Este marco regulatorio se ha actualizado para abordar desafíos contemporáneos mediante la Ley 26.388 sobre delitos informáticos, la Ley 26.904 que tipifica el grooming, y la Ley 27.078 sobre Tecnologías de la Información y Comunicación. Recientemente, la Ley 27.590 ha implementado un programa específico para la prevención del ciberacoso.
Este análisis del marco normativo argentino demuestra que, si bien el país no cuenta con una legislación específica que regule el contenido publicado en redes sociales y plataformas digitales similares, dispone de un entramado jurídico capaz de garantizar eficazmente los derechos de niños, niñas y adolescentes (NNyA) en el entorno digital. Esta protección se ve fortalecida por el bloque de constitucionalidad y convencionalidad, así como por el principio rector del interés superior del niño, que opera como criterio orientador fundamental para subsanar eventuales vacíos regulatorios en la materia.
Sin perjuicio de esto, cada vez resulta más acuciante que el Estado comience a regular estas tecnologías de forma preventiva y no de forma reactiva, pues los peligros que conllevan y los riesgos inherentes a su uso son cada vez más evidentes. La experiencia internacional, como el caso “Anderson v. TikTok”, demuestra la necesidad urgente de establecer un marco regulatorio específico que aborde la responsabilidad de las plataformas digitales por sus algoritmos de recomendación, especialmente cuando estos pueden afectar a menores de edad. Es fundamental que esta regulación logre un equilibrio entre la innovación tecnológica, la libertad de expresión y la protección efectiva de los derechos de los usuarios más vulnerables, estableciendo estándares claros de responsabilidad y mecanismos de supervisión que garanticen un entorno digital más seguro para todos.
Accedé al texto de la sentencia 👇
- En el contexto de las redes sociales, un feed es una secuencia dinámica y personalizada de contenidos que se actualiza constantemente con las nuevas publicaciones, historias y/o anuncios que se realizan a través de los distintos perfiles de una red social. Para más información ver el siguiente artículo ↩︎
- Reno v. American Civil Liberties Union. En el Holding de este fallo se dijo “Internet tiene derecho a la protección plena que se otorga a otras formas de medios de comunicación, como la prensa escrita o la televisión, y los factores especiales que justifican la regulación gubernamental de las emisiones de los medios de comunicación no se aplican en este caso. Salvo en el caso de la pornografía infantil o la obscenidad, la Ley de Decencia en las Comunicaciones de 1996 no es aplicable cuando se aplica a sus medidas contrarias a la decencia, ya que dichas disposiciones son demasiado amplias. La Sección 502 de la Ley de Telecomunicaciones de 1996 es inconstitucional porque viola la Cláusula de Libertad de Expresión de la Primera Enmienda de la Constitución de los Estados Unidos de América.” la traducción de este fragmento fue realizada con Google Translate para ver el contenido en su idioma original ver en el siguiente artículo ↩︎
- Campero, Agustina “Los menores de edad y la libertad de expresión en las redes sociales” – Publicado en Sup. Innovación y Derecho 2023 (abril), 13 LA LEY 2023-B – Cita: TR LALEY AR/DOC/809/2023 ↩︎

Glosario
Entropía: “En el contexto de IA, se refiere a la medida de ‘desorden’ o de la incertidumbre en un sistema. En aprendizaje automático, se usa para determinar cuán bien un modelo puede hacer una predicción.”
¿Te resulta útil este contenido? Todo lo que compartimos es 100% gratuito. Si querés apoyar nuestro trabajo, podés invitarnos un cafecito ☕️ – ¡cada aporte nos ayuda a seguir creando contenido de calidad!