- 09 de julio de 2024
5 errores a evitar al usar la inteligencia artificial en marketing
La inteligencia artificial es una herramienta poderosa. Tanto que, probablemente, todavía estamos a años luz de vislumbrar alguna de sus más remotas posibilidades.
Sin embargo, el uso de una tecnología todavía tan prometedora pero, a la vez, tan desconocida, puede inducir a cometer ciertos errores que podrían poner en riesgo los derechos y libertades de terceros, como por ejemplo el derecho a la intimidad o a la protección de datos.
Estos son 5 errores que nunca se deberían cometer.
No identificar el contenido generado por IA
Cada vez es más frecuente ver extractos de vídeo donde el político o la personalidad de turno realiza declaraciones fuera de lugar o aparece en un contexto deformado. Sí, se trata de parodias, de humor, pero da una idea de hasta dónde se podría emplear la IA.
La proliferación de deepfakes y ultrafalsificaciones puede llegar a poner en tela de juicio prácticamente cualquier información de la que vemos día a día, a no ser que se impongan unos límites a la creación de contenidos generados por IA.
En este sentido, la inminente Ley de Inteligencia Artificial obligará a identificar todos los contenidos creados mediante IA, ya sean escritos, imágenes, voces, sonidos o cualquier otro elemento audiovisual.
No respetar los derechos de autor
Hasta que una normativa diga lo contrario, no se puede afirmar que los derechos de autor de un contenido generado por inteligencia artificial puedan pertenecer a los creadores de dicha IA o a los usuarios generadores de dicho contenido. Los derechos de autor pertenecen a los dueños de los contenidos que se han empleado para la generación del contenido por parte de la IA.
Es normal que se trate de un tema que suscite debate, pues los defensores de la inteligencia artificial consideran que se trataría de un contenido nuevo, del mismo modo que otros creadores se basan en obras anteriores. Sin embargo, aquí el punto es que la IA no se basa en inspiraciones o influencias, sino en modelos que emplean datos y contenidos concretos de terceros.
Por tanto, siempre que los contenidos empleados para entrenar una IA o para generar contenidos a través de ella tengan copyright, se debe informar sobre el titular de los mismos.
Usar la inteligencia artificial para engañar o manipular
La próxima Ley sobre inteligencia artificial prohíbe usar estas herramientas para explotar vulnerabilidades de terceros, con el objetivo de engañar o manipular.
Aunque ya existen infinidad de programas CRM y ERP que son capaces de manejar y relacionar los datos de grandes volúmenes de usuarios, este es un punto que causa cierta preocupación entre los agentes del sector del marketing y la publicidad. ¿Dónde está el límite al uso de estas herramientas? Según el proyecto de ley elaborado por la Unión Europea, no se puede usar la IA para inducir a terceros a adoptar determinados comportamientos de manera engañosa, incluyendo el ámbito personal, social, político y, por supuesto, también como consumidores.
Usar datos biométricos para entrenar una IA
El Comité Europeo de Protección de Datos (CEPD) ha manifestado que el tratamiento de datos obtenidos mediante sistemas o dispositivos biométricos queda prohibido salvo casos excepcionales.
Por tanto, el uso de datos biométricos como el reconocimiento de voz, la huella dactilar o el reconocimiento facial queda totalmente prohibido para fines de mercadotecnia, por considerarse excesivo y desproporcionado para los fines perseguidos.
Dependencia excesiva de la Inteligencia artificial
Por último, la recomendación de los expertos en protección de datos e inteligencia artificial dicen que no hay que fiarse todavía demasiado de esta tecnología. Tiene grandes posibilidades, sí, pero también algunas cuestiones dudosas a valorar.
Por un lado, está el hecho de que los datos generados por una inteligencia artificial no siempre tienen que ser correctos. Aún diríamos más: no tendrían ni que ser más correctos que los generados por un ser humano. Al final, el contenido que genera una IA se basa en contenido ya existente, y ese contenido puede ser falso, estar desactualizado o incluso tener sesgos raciales, políticos o de cualquier otra índole.
Y por otro lado, está el uso de la inteligencia artificial sin supervisión, dejarlo todo al control de una herramienta, lo cual podría ser incluso una temeridad, y sino ahí está el ejemplo de Skynet. Es por ello que en la próxima Ley de inteligencia artificial también se incluirá la obligación de asignar supervisión humana a los sistemas operados por IA.
En definitiva, todavía quedan muchas dudas por despejar respecto a la aplicación de la normativa sobre inteligencia artificial, y más que van a aparecer en cuanto la ley esté vigente. De momento, conviene ir sabiendo lo que no hay que hacer, y esperar a ver cómo avanzan las cosas.