Modelos de Inteligencia Artificial Open Source: ¿Una solución o un problema?

La proliferación de potentes modelos de Inteligencia Artificial de Código Abierto (Open AI) como Llama 3.2 de Meta está generando un gran debate entre los expertos en la materia. Sin dudas, no es un tema sencillo de tratar debido a la infinidad de variables que pueden suscitarse si un modelo de IA está al alcance de cualquiera.
En este artículo de Derecho y Algoritmos trataremos de responder a algunos de estos interrogantes ¿Qué es el Open Source? ¿Por qué es importante?,¿Qué beneficios y qué riesgos existen si un modelo de IA es Open Source?
¿Qué es el Open Source?
Seguramente has escuchado en reiteradas oportunidades el concepto “open source” que, en su equivalente al español, significa “código abierto”. Este modelo implica que el código fuente del software se desarrolla de manera descentralizada entre pares y está disponible para que cualquier persona lo pueda inspeccionar, distribuir, modificar y utilizar libremente.
La esencia del open source es el trabajo colaborativo. Quienes son partidarios de este modelo de licencias de código abierto consideran que mientras más personas calificadas tengan acceso al código fuente para mejorarlo, distribuirlo y transformarlo, mejor serán los resultados obtenidos y, por lo tanto, será un beneficio para toda la comunidad. Además, este tipo de licencias poseen un alto nivel de transparencia y permiten que cualquier persona pueda auditar, testear y determinar las posibles consecuencias del uso del software.
El Open Source inicialmente se circunscribió al software, pero hoy en día es un auténtico movimiento con su filosofía y valores propios y se ha extendido a múltiples ámbitos. Por ejemplo, a Internet (Wikipedia, foros y comunidades en línea). También, tenemos a sistemas operativos muy populares como Linux y Android o incluso dinero digital como Bitcoin, que también es Open Source y cualquiera puede involucrarse en el desarrollo de su código, distribuirlo y ser parte de su protocolo.
Sin embargo, no hay que confundir software de código abierto con software libre, ya que este último implica que cualquier persona puede utilizarlo, pero no necesariamente puede modificar o distribuir su código.
Características del Open Source
El software open source tiene varias características que lo definen:
- Acceso al código fuente: Los usuarios pueden ver y modificar el código fuente.
- Licencias flexibles: Existen diferentes tipos de licencias que determinan cómo se puede usar, modificar y redistribuir el software.
- Colaboración: Fomenta la participación activa de desarrolladores y usuarios en la mejora del software.
- Transparencia: Permite a los usuarios verificar la seguridad y la calidad del software
IA Open Source: ¿una solución o un problema?
Hasta ahora los detractores del Open Source se enfocaban en críticas relacionadas con la atribución de responsabilidad por vulnerabilidades en el software, propiedad intelectual, la jurisdicción en la aplicación de las leyes, entre otras. Sin embargo, todos estos cuestionamientos en alguna medida se lograron saldar y el código Open Source coexistía sin mayores inconvenientes con el software protegido.
No obstante, con la irrupción de los modelos de IA de código abierto se ha reavivado el debate sobre este tema. Cada vez son más los expertos que señalan con gran preocupación sobre la existencia de modelos tan potentes como Llama 3, Stable Difusion estén liberados al público sin ninguna restricción.
Principales riesgos.
Geoffrey Hinton, reciente premio Nobel, conocido como el “padrino de la inteligencia artificial” y pionero en el desarrollo de redes neuronales, ha expresado serias preocupaciones sobre los peligros que la inteligencia artificial (IA) puede representar para la humanidad. Tras dejar su puesto en Google en 2023, Hinton ha advertido sobre varios riesgos asociados con el avance descontrolado de esta tecnología.
“Dentro de 5 o 20 años, habrá una probabilidad del 50% de que tengamos que afrontar el problema de que la Inteligencia Artificial intente tomar el control de nuestras vidas”.
Geoffrey Hinton
Falta de Control sobre el Uso
Una de las preocupaciones más grandes entre los expertos es la falta de control sobre cómo se utilizan estos modelos. Una vez que un modelo de IA es liberado como código abierto, cualquier persona puede modificarlo y aplicarlo a fines no éticos o a veces hasta ilegales, como la creación de desinformación o herramientas para actividades maliciosas. Esto fue evidente cuando versiones no censuradas de modelos como “Llama 2” fueron utilizadas para responder a preguntas peligrosas, como la fabricación de explosivos o la automatización para actividades cibercriminales.
Riesgos de Ciberseguridad
Los modelos de IA abiertos pueden ser vulnerables a ataques cibernéticos. La naturaleza abierta del código es suceptible a que los atacantes puedan examinar el software en busca de debilidades para explotarlas. Además, si el modelo se entrena con datos sesgados o inseguros, puede generar resultados erróneos que comprometan la seguridad. Esto se agrava por la dificultad en rastrear quién está detrás de las implementaciones del modelo.
Uso Malintencionado
La accesibilidad del código abierto permite que individuos o grupos con intenciones maliciosas utilicen la tecnología para fines perjudiciales. Esto incluye desde la creación de deepfakes hasta la automatización de ataques cibernéticos. La posibilidad de que personas sin escrúpulos modifiquen el modelo para propósitos dañinos es un riesgo inherente al acceso irrestricto.
Desinformación y Manipulación
Con la capacidad de generar texto y contenido visual, los modelos de IA de código abierto pueden ser utilizados para difundir desinformación a gran escala. Esto genera un peligro enorme para la integridad de la información y puede influir en procesos democráticos y sociales.
Problemas Legales y Éticos
El uso del código abierto también conlleva riesgos legales, como la posible infracción de derechos de autor o la violación a las leyes de protección de datos si el modelo se entrena con datos no autorizados. Las empresas que integran estos modelos sin el debido asesoramiento jurídico y sin analizar a fondo las licencias, el uso de los datos y cómo entrenan a estos modelos pueden enfrentar consecuencias graves problemas legales. Por estos motivos, quienes son partidarios de la regulación de la IA manifiestan que se necesitan reglas claras y precisas sobre su uso ético y seguro.
En consecuencia, quienes son críticos de la liberación de estos potentes modelos de IA insisten en que aunque la IA de código abierto ofrece oportunidades para la innovación y el desarrollo colaborativo, también plantea riesgos considerables que deben ser gestionados cuidadosamente. La falta de control sobre su uso, los riesgos de ciberseguridad, y las posibilidades de desinformación son solo algunos ejemplos que subrayan la necesidad urgente de establecer regulaciones y prácticas responsables en este campo emergente.
Argumentos a favor de la IA de código abierto.
Sin perjuicio de los argumentos de quienes abogan una Inteligencia Artificial fuertemente regulada y con una visión más pesimista sobre cómo evolucionará esta tecnología, también se pueden observar a un grupo no menor de expertos y entusiastas que defienden que esta tecnología esté al alcance de todos.
Sin dudas, uno de los exponentes más resonantes de este bando es el CEO de Meta, Mark Zuckerberg, quien sostiene que este modelo es más transparente, más democrático, acorta brechas, es auditable y logra un mejor control sobre los efectos que podría provocar en la sociedad.
“El código abierto garantizará que más personas de todo el mundo tengan acceso a los beneficios y oportunidades de la IA, que el poder no se concentre en manos de un pequeño número de empresas y que la tecnología pueda desplegarse de forma más uniforme y segura en toda la sociedad”.
Mark Zuckerberg
Beneficios de la Inteligencia Artificial de Código Abierto
Accesibilidad y Democratización
Los modelos de IA de código abierto permiten que un amplio espectro de usuarios, desde investigadores hasta pequeñas empresas, accedan a tecnologías avanzadas sin las barreras económicas que imponen los modelos propietarios. Esto fomenta un entorno donde la innovación puede surgir de diversas fuentes, no solo de grandes corporaciones. Al democratizar el acceso a la IA, se asegura que los avances tecnológicos beneficien a toda la sociedad, promoviendo un progreso más igualitario y equitativo. De esta manera, se evitan los monopolio tecnológicos.
Reducción de costos y barreras de entrada.
Las organizaciones pueden personalizar y adaptar modelos de IA a sus necesidades específicas sin incurrir en altos costos asociados con software propietario. Esto es especialmente valioso para pequeñas empresas o startups que buscan implementar soluciones innovadoras sin grandes inversiones iniciales. Las plataformas como Red Hat Enterprise Linux AI demuestran cómo las soluciones abiertas permiten un uso más eficiente y rentable de la IA generativa.
Fomento de la Innovación y Creatividad
Los modelos de IA de código abierto estimulan la creatividad al permitir que una amplia gama de desarrolladores contribuya a su evolución. Según un artículo del Foro Económico Mundial, “una industria que fomente el desarrollo de código abierto puede conducir a una mayor creatividad y a una IA más segura”. Esto se traduce en un ecosistema donde las ideas pueden ser compartidas y mejoradas colectivamente, lo que resulta en soluciones más innovadoras.
Reducción del Riesgo de Sesgos
La apertura del código permite auditorías independientes que pueden identificar y corregir sesgos en los modelos. La transparencia es fundamental para mitigar riesgos asociados con decisiones automatizadas que afectan a las personas. “Con el código fuente accesible, es más fácil garantizar que se sigan pautas éticas y prácticas de IA responsables”, destaca este artículo sobre la importancia del código abierto.
IA para todos, pero con reglas claras.
Como defensor del código abierto, si bien no comparto las posturas extremistas que buscan abolir la propiedad intelectual, considero fundamental que la información y la cultura sean accesibles para todos. Sin embargo, el impacto y los riesgos inherentes que ha generado la inteligencia artificial de código abierto me han llevado a reexaminar esta posición.
Después de un nuevo examen sobre el uso de modelos de Inteligencia Artificial de código abierto, considero que sus beneficios sociales superan los riesgos potenciales, siempre que se implemente bajo un marco regulatorio adecuado y un enfoque responsable por parte de los Estados.
La liberación sin restricciones de potentes modelos de IA como Llama 3.2 de Meta o Stable Diffusion conlleva preocupaciones legítimas: riesgos de ciberseguridad, potencial para la desinformación, manipulación y dilemas éticos. No obstante, restringir el acceso a estos avances tecnológicos sería contraproducente y no impediría su uso indebido por parte de actores malintencionados.
La democratización del acceso a la IA a través del código abierto es fundamental para fomentar la innovación, la creatividad y el progreso igualitario y equitativo en nuestra sociedad. En todo caso, será tarea de los Estados regular adecuadamente este tipo de tecnología y asegurar que quienes participen en este tipo de proyectos deban respetar los derechos fundamentales de las personas.
Además, la transparencia inherente al código abierto es esencial para mitigar los riesgos asociados con sesgos y decisiones automatizadas que afectan a las personas. Al permitir auditorías independientes, se pueden identificar y corregir errores o sesgos en los modelos, garantizando así prácticas éticas y responsables en el desarrollo y uso de la IA.
Bajo esta perspectiva, para aprovechar al máximo los beneficios del código abierto mientras se minimizan los riesgos, es crucial que los Estados asuman un papel activo en la regulación de esta tecnología. Se necesitan marcos legales claros y precisos que establezcan pautas para el uso ético y seguro de la IA, así como mecanismos de supervisión y control para prevenir abusos.
La colaboración entre gobiernos, industria, academia y sociedad civil es fundamental para encontrar el equilibrio adecuado entre la innovación y la protección de los derechos y la seguridad de los ciudadanos. Solo a través de un enfoque multidisciplinario y participativo podremos aprovechar todo el potencial de la IA de código abierto mientras mitigamos sus riesgos.
Sin dudas, el Reglamento de Inteligencia Artificial de la Unión Europea representa, hasta la fecha, el marco regulatorio más completo y detallado disponible, constituyendo una referencia de consulta obligatoria en el derecho comparado para la regulación legislativa de otros Estados.
En conclusión, aunque defiendo el derecho al acceso libre a la información y la tecnología, incluyendo los modelos de IA de código abierto, este debe equilibrarse con una regulación estatal efectiva y un compromiso colectivo hacia su uso ético y seguro. Solo así garantizaremos una distribución equitativa de los beneficios de la IA mientras protegemos a la sociedad de sus riesgos potenciales.
¿Te resulta útil este contenido? Todo lo que compartimos es 100% gratuito. Si querés apoyar nuestro trabajo, podés invitarnos un cafecito ☕️ – ¡cada aporte nos ayuda a seguir creando contenido de calidad!

Glosario
Deepfake: “Contenido multimedia sintético creado mediante IA que puede simular la apariencia y voz de personas reales”.