
Cada vez más profesionales y empresas están integrando herramientas de inteligencia artificial en su día a día laboral. Hablamos de redactores que utilizan asistentes de texto, diseñadores que editan imágenes con IA generativa o abogados que automatizan respuestas con chatbots.
Poco a poco, además, su uso se está normalizando e incluso invisibilizando (a medida que evoluciona, más y más), pero sigue contando con una serie de (crecientes) obligaciones. En España, ya se ha aprobado el anteproyecto de ley para el buen uso y la gobernanza de la inteligencia artificial: entre sus novedades, se obligará a informar de cuando se utiliza inteligencia artificial.
Informar del uso de IA no es opcional
El nuevo marco legal exigirá que cualquier contenido generado, total o parcialmente, mediante sistemas de IA esté debidamente identificado. Esto incluye textos, vídeos, audios, imágenes y cualquier otro recurso que haya sido creado o modificado por herramientas automatizadas.
La medida busca garantizar la transparencia, evitar la confusión con creaciones humanas y proteger a los usuarios frente a posibles fraudes o desinformación.
Este requisito no solo afecta a grandes empresas o plataformas, sino también a autónomos y profesionales freelance que utilicen herramientas de inteligencia artificial para el desarrollo de su actividad profesional.
¿Y cuándo será obligatorio cumplir con estos criterios? Si se utilizan herramientas como parte del proceso creativo o de atención al cliente, será obligatorio avisar expresamente de su uso.
Cuándo avisar y cómo hacerlo
El principio es claro: si el contenido no se ha generado exclusivamente por una persona, debe indicarse que ha intervenido una IA. Algunos casos típicos que entrarían en esta obligación:
- Un artículo de blog redactado con la ayuda de un modelo de lenguaje.
- Un vídeo editado con voces sintéticas o escenas generadas por IA.
- Un mensaje de atención al cliente automatizado con ChatGPT o herramientas similares.
- Un contenido de redes sociales diseñado con imágenes generadas automáticamente.
¿Y cómo se informa? No existe todavía un formato único, pero la recomendación general es ser claro, visible y comprensible. Por ejemplo:
- Añadir una nota como “Este contenido ha sido creado con ayuda de inteligencia artificial”.
- Incluir "disclaimers" o avisos al principio o al final de un vídeo o podcast.
- Mencionar en la web o redes sociales que se utilizan sistemas automatizados en la atención al cliente.
En cambio, si una herramienta de IA se ha usado solo como apoyo menor o sugerencia el límite no está tan claro. En estos casos, la normativa que se plantea señala que conviene seguir aplicando el criterio de transparencia: si el usuario final puede interpretar que todo el trabajo es humano, conviene informar de lo contrario.
¿Y si se incumple?
Las sanciones aún no están definidas de forma definitiva en la ley española, pero el reglamento europeo establece multas que podrían alcanzar hasta 35 millones de euros o el 7 % de la facturación anual, en los casos más graves. Cabe suponer que, en el ámbito nacional, las sanciones serán, probablemente, más proporcionadas para autónomos, pero esto no significa que no vayan a aplicarse.
Más allá del riesgo económico, la reputación también puede verse afectada. Ocultar el uso de IA en trabajos encargados por clientes o en contenidos públicos puede deteriorar la confianza profesional. Sin embargo, a medida que avanza la tecnología, parece más y más complicado identificar los aspectos relevantes, por lo que la Comisión Europea ha facilitado incluso guías de uso.
El uso de la IA y sus límites todavía pueden resultar difusos, así como no está bien visto en todos los sectores, por lo que podría llevar a prácticas encubiertas que no benefician ni a los profesionales ni al usuario final.
Datos personales e IA
Si utilizas IA en tu trabajo y esa herramienta accede, gestiona o analiza datos personales de terceros (clientes, usuarios, pacientes...), debes tener en cuenta también las exigencias de la Ley de Protección de Datos (LOPDGDD) y el Reglamento General de Protección de Datos (RGPD).
Eso implica, entre otras cosas:
- Informar y pedir consentimiento, cuando corresponda
- Evitar introducir datos sensibles en herramientas sin garantías
- Formalizar contratos si se trabaja con proveedores de IA externos
No todo el uso de IA implica riesgo para la privacidad, pero cuando lo hay, es importante actuar con prevención.
Usar IAs no es ilegal, pero exige responsabilidad
Las herramientas de inteligencia artificial pueden ayudarte a trabajar más rápido, ser más creativo o mejorar tu atención al cliente. Pero si decides usarlas como autónomo o profesional, el primer paso es comunicarlo adecuadamente.
En breve, todo apunta que la transparencia dejará de ser una simple recomendación para convertirse en una obligación legal. Y aunque aún queda recorrido para que esta ley entre plenamente en vigor, adaptarse ahora es una forma de evitar riesgos y ganar en profesionalidad.