microjuris @microjurisar: #Doctrina Empoderarse para decidir: desafíos de la IA en las relaciones de consumo

#Doctrina Empoderarse para decidir: desafíos de la IA en las relaciones de consumo

neurociencias

Autor: Ruano, M. Candela

Fecha: 16-09-2024

Colección: Doctrina

Cita: MJ-DOC-17974-AR||MJD17974

Voces: INTELIGENCIA ARTIFICIAL – NEUROCIENCIAS – RELACION DE CONSUMO – PUBLICIDAD ENGAÑOSA – CONSUMIDOR

Sumario:
I. Introducción. II. Desafíos de la Inteligencia Artificial en las relaciones de consumo. III. Breve análisis de algunos casos de uso. IV. Reflexiones Finales.

Doctrina:
Por M. Candela Ruano (*)

I. INTRODUCCIÓN

La inteligencia artificial ha dejado de ser una tecnología emergente para convertirse en una parte integral de nuestra vida cotidiana.

En el ámbito de las relaciones de consumo, la IA ofrece numerosos beneficios. Facilita la personalización de servicios y productos, mejora la experiencia del usuario a través de recomendaciones adaptadas a sus preferencias y necesidades, permite la asistencia virtual constante, posibilita un mayor acceso a la comparación de productos, facilita el ejercicio del derecho de arrepentimiento, entre otras cuestiones que pueden aumentar la satisfacción y la eficiencia en las decisiones de compra tanto como mejorar el soporte al cliente y la resolución de controversias o consultas.

Sin embargo, también plantea riesgos significativos para los derechos de los consumidores y usuarios. La recopilación y el análisis masivo de datos personales, aunque útiles para la personalización, son preocupantes desde la óptica de la privacidad y la protección de datos. Los consumidores pueden sentirse expuestos y vulnerables ante el uso indebido de su información, lo que podría derivar en una pérdida de control sobre ésta. Además, la capacidad de la IA para influir sutilmente en las decisiones de compra plantea interrogantes éticos sobre la manipulación del comportamiento del consumidor.

En este contexto, es imperativo promover un uso responsable de la IA en las relaciones de consumo. Esto implica, por un lado, empoderar a los consumidores para que tomen decisiones informadas y protejan su privacidad. Por el otro, promover que las empresas adopten prácticas éticas y transparentes en el uso de la IA, garantizando mecanismos claros y transparentes para la gestión de sus datos, y respetando sus derechos esenciales como consumidores. Solo así podremos construir un futuro en el que la IA contribuya a un mercado más eficiente, justo y respetuoso de los derechos de los sujetos más vulnerables de las relaciones de consumo.

II.DESAFÍOS DE LA INTELIGENCIA ARTIFICIAL EN LAS RELACIONES DE CONSUMO

En el dinámico ámbito de las relaciones de consumo, la inteligencia artificial se ha convertido en una herramienta esencial que transforma radicalmente la manera en que los consumidores interactúan con las plataformas digitales.

Esta transformación es posible gracias a la implementación de algoritmos, que son el núcleo de la inteligencia artificial. Podríamos definirlos como aquellos conjuntos de instrucciones, reglas o series metódicas de pasos que pueden utilizarse para hacer cálculos, resolver problemas y tomar decisiones (1) o, en forma más sencilla, como aquellos procesos que guían paso a paso la obtención de un resultado determinado, de manera tal que cumpliendo con cada una de esas etapas instruidas se puede alcanzar la solución al problema planteado (2).

Es importante resaltar la capacidad de los algoritmos para el aprendizaje automático o machine learning. Estos sistemas informáticos pueden aprender de manera autónoma mediante el análisis de datos. Al identificar patrones en los datos, los algoritmos pueden utilizar esta información para tomar decisiones y ejecutar acciones por sí mismos. Este proceso continuo de aprendizaje y adaptación permite que los sistemas mejoren su rendimiento y precisión con el tiempo. En pocas palabras, se trata un aspecto de la informática en el que los ordenadores o las máquinas tienen la capacidad de aprender sin estar programados para ello (3).

Las empresas de comercio electrónico utilizan modelos avanzados de algoritmos para sugerir productos o contenido basados en patrones de comportamiento similares entre usuarios. Estos modelos se fundamentan en tres técnicas principales: filtrado colaborativo, análisis de contenido y aprendizaje profundo.

El filtrado colaborativo se centra en la idea de que los usuarios con gustos similares en el pasado probablemente seguirán teniendo preferencias parecidas en el futuro (4). Por ejemplo, si un grupo de usuarios ha comprado libros de ciencia ficción y un producto específico adicional, es probable que un nuevo usuario que también compre libros de ciencia ficción se interese por ese producto adicional.El sistema de recomendación utiliza datos de compra y preferencias acumulados para sugerir productos que otros usuarios con intereses similares han encontrado atractivos.

Por su parte, el análisis de contenido analiza las características intrínsecas de los productos para hacer recomendaciones. Esta técnica examina aspectos como la descripción del producto, sus categorías y otros metadatos. Por ejemplo, en Netflix, si un usuario muestra preferencia por películas de acción con ciertos elementos narrativos, el sistema recomendará otras películas con descripciones y categorías similares. Esta técnica permite recomendaciones basadas en las cualidades y características de los productos, en lugar de simplemente basarse en el comportamiento de otros usuarios.

A su vez, el aprendizaje profundo o deep learning, como subcampo del aprendizaje automático, es un procedimiento avanzado que intenta imitar el enfoque de aprendizaje que las personas utilizan para procesar datos y crear patrones que se utilizarán en la toma de decisiones (5). Así, el aprendizaje profundo representa una evolución en los algoritmos de recomendación, aplicando redes neuronales para identificar patrones complejos en grandes volúmenes de datos. Este enfoque permite a los sistemas de recomendación no solo entender preferencias explícitas sino también descubrir correlaciones implícitas entre diversos comportamientos y productos. Por ejemplo, un sistema de recomendación puede aprender que los usuarios que compran artículos para bebés también tienden a interesarse en productos de bienestar familiar, a través de patrones detectados en datos masivos.

El impacto del uso de inteligencia artificial en las relaciones de consumo tiene beneficios, pero también presenta grandes retos. Por un lado, exhiben ventajas claras como la capacidad de descubrir productos y servicios que de otra manera podrían pasar desapercibidos para los consumidores, mejorando la satisfacción del cliente y aumentando la probabilidad de compra. Las recomendaciones personalizadas ayudan a los usuarios a encontrar productos relevantes con mayor rapidez, reduciendo el tiempo de búsqueda y aumentando la eficiencia en la toma de decisiones. Por el otro, el uso intensivo de datos para personalizar la experiencia de compra plantea desafíos significativos.Una preocupación importante es la privacidad de los datos. Los algoritmos de recomendación requieren grandes cantidades de información personal para funcionar eficazmente, lo que puede llevar a la recopilación y uso de datos personales de formas que los consumidores no comprenden completamente. Esta opacidad puede resultar en desconfianza hacia las plataformas y preocupaciones sobre la seguridad de los datos personales. Otro desafío crítico es la manipulación de preferencias y la creación de burbujas de filtro. Los algoritmos tienden a mostrar productos y contenidos que coinciden con las preferencias existentes del usuario, lo que puede limitar la exposición a una variedad más amplia de opciones y perspectivas. Esta limitación puede restringir la capacidad de los consumidores para descubrir productos novedosos o ideas diferentes, confinándolos a un ciclo de recomendaciones que refuerzan sus gustos actuales sin ampliar sus horizontes.

Para equilibrar estos beneficios y desafíos, es crucial que las empresas de comercio electrónico adopten un enfoque transparente en el uso de la IA y los algoritmos de recomendación. Los consumidores deben poder elegir la aplicación de estos sistemas tanto como estar informados sobre cómo se recopilan y utilizan sus datos, teniendo la capacidad de controlar sus preferencias de privacidad.Otro aspecto crítico que no puede pasarse por alto es la existencia de sesgos, los que refieren a prejuicios o inclinaciones que pueden influir en nuestras percepciones y decisiones.

Desde una óptica general, el concepto de «sesgo algorítmico» hace referencia a errores sistemáticos de cualquier tipo que se producen en el resultado de operaciones algorítmicas, lo que incluye aquellos de tipo estadístico, cognitivos, sociales, estructurales o de naturaleza institucional (6).

Desde una óptica estadística, el sesgo algorítmico se puede describir como aquella diferencia que se produce entre lo que el sistema predice y lo que sucede en la realidad o, en otras palabras, la que se produce entre el valor estimado o predicho y el verdadero valor (7).

En el contexto de la inteligencia artificial, los sesgos se manifiestan como tendencias que los algoritmos pueden desarrollar, influenciando sus decisiones de maneras que no reflejan necesariamente una evaluación objetiva de la información.

En consecuencia, resulta necesario analizar los sesgos algorítmicos como cuestiones que encapsulan prejuicios o inclinaciones sistemáticas en los algoritmos de IA con la capacidad para influir en la toma de decisiones de los consumidores y usuarios de manera injusta y discriminatoria. Estos pueden provocar resultados desiguales, afectando negativamente a ciertos grupos de usuarios y perpetuando inequidades en el acceso a servicios y oportunidades.

Estos sesgos pueden originarse en una variedad de fuentes, incluyendo los datos estadísticos utilizados para entrenar los algoritmos, que a menudo reflejan desigualdades históricas o culturales. Además, los prejuicios cognitivos de los programadores y las estructuras institucionales en las que se desarrollan estos algoritmos pueden contribuir a perpetuar o incluso exacerbar estas inclinaciones. La discriminación algorítmica, entonces, no solo se manifiesta en los resultados emitidos por estos sistemas, sino que también se arraiga en las etapas fundamentales de su creación y operación. Abarcar estos desafíos requiere una comprensión profunda de las interacciones entre tecnología, socie dad y los principios éticos que deben regir nuestro avance tecnológico.

Según sus orígenes, los sesgos algorítmicos pueden clasificarse en tres tipos principales:sesgos de interacción, sesgos latentes y sesgos de selección.

Los sesgos de interacción ocurren cuando usuarios o programadores introducen involuntariamente prejuicios en un modelo de IA debido a sus propias percepciones o formas de interactuar con el sistema. De esta manera, el propio usuario o programador introduce inadvertidamente un sesgo en el modelo por el modo en que interactúa con él, como al definir la función de éxito del modelo o su objeto (8). Un ejemplo en el contexto de decisiones de compra sería una plataforma de comercio electrónico que utiliza IA para recomendar productos para las festividades. Si los programadores, de manera inconsciente, diseñan el algoritmo basándose en estereotipos de género, podría resultar en un sesgo hacia ciertos productos en función del género del usuario. Por ejemplo, si el algoritmo tiende a recomendar desproporcionadamente artículos de cocina y decoración del hogar a mujeres durante festividades como el Día de la Madre, perpetuando el estereotipo de que las mujeres son responsables del cuidado del hogar, podría ignorar otras categorías de productos. Para mitigar este tipo de sesgos, es crucial implementar procesos de revisión inclusiva que incluyan la supervisión de cómo se generan las recomendaciones de productos y realizar pruebas con usuarios de diferentes géneros y perfiles para asegurar que las recomendaciones no refuercen estereotipos de género. La inclusión de opiniones diversas durante el desarrollo del algoritmo y el uso de datos de retroalimentación de los usuarios para ajustar las recomendaciones pueden hacer que el sistema sea más equilibrado y justo. Esto garantiza que todos los usuarios reciban sugerencias relevantes para sus intereses reales, en lugar de basarse en presunciones preconcebidas.

Los sesgos latentes, por otro lado, surgen de correlaciones inapropiadas hechas por el sistema de IA, generalmente cuando el algoritmo establece conexiones erróneas entre puntos de datos que no están justificadas por la realidad.Así, cuando el sistema de IA efectúa correspondencias inadecuadas entre los datos da lugar a falsos nexos entre distintos puntos de datos (9). En términos de decisiones de compra, un servicio de suscripción que utiliza un algoritmo para ofrecer descuentos en productos podría desarrollar una correlación impropia entre el historial de compras de ciertos grupos demográficos y su interés en los descuentos, resultando en ofertas sesgadas. Si el sistema observa que ciertos grupos compran menos, podría asociar erróneamente esta tendencia con una falta de interés, ofreciendo menos descuentos a estos grupos. Para mitigar los sesgos latentes, es esencial llevar a cabo revisiones y auditorías regulares de las correlaciones que el algoritmo establece, asegurándose de que los datos históricos no se utilicen de manera que perpetúen sesgos injustos. Desarrollar políticas que enfoquen el modelo en comportamientos actuales en lugar de patrones históricos injustos también es crucial.

Finalmente, los sesgos de selección se producen cuando los datos utilizados para entrenar un algoritmo no son representativos de la diversidad real de la población o del contexto de aplicación, es decir, cuando el set de datos no es lo suficientemente representativo de la diversidad existente en el medio social (10). Por ejemplo, en el contexto de decisiones de compra sería un motor de búsqueda de viajes que utiliza IA para recomendar destinos basado en datos predominantemente de usuarios jóvenes, resultando en recomendaciones que favorezcan destinos populares entre los jóvenes y excluyendo opciones que podrían ser más atractivas para familias o personas mayores. Esto limita la experiencia de estos usuarios. Para mitigar los sesgos de selección, es crucial diversificar las fuentes de datos y asegurar que el entrenamiento del algoritmo represente una amplia gama de usuarios y contextos.Utilizar técnicas como la reponderación de datos o la inclusión de muestreo diverso puede mejorar la equidad en las recomendaciones.

Al respecto, cabe enfatizar que los sesgos algorítmicos tienen un impacto particularmente adverso en el acceso al consumo de los consumidores en situación vulnerable y de desventaja, definidos como toda persona humana que, en atención a su edad, género, condiciones de salud u otras circunstancias sociales, económicas o culturales, sea o pueda ser, en forma inminente, pasible de cualquier afectación a sus derechos como consumidor debido a su particular condición (11).

Por ejemplo, los menores de edad son especialmente susceptibles a los sesgos algorítmicos que pueden dirigirlos hacia productos y contenidos inadecuados o peligrosos. Debido a su falta de experiencia y capacidad crítica para evaluar la información presentada por sistemas de IA, los menores pueden ser expuestos a recomendaciones de productos o juegos no seguros que no consideran adecuadamente su edad o madurez. Estudios han demostrado que los algoritmos en plataformas de video y juegos frecuentemente sugieren contenido inapropiado para los menores, exponiéndolos a riesgos tanto físicos como psicológicos. Esto se agrava porque los menores tienden a confiar en la tecnología sin cuestionarla, aumentando su vulnerabilidad.

En el caso de los adultos mayores, la interacción con sistemas de IA sesgados puede ser igualmente perjudicial. Este grupo, que a menudo tiene menos familiaridad con las tecnologías digitales, puede recibir y confiar en recomendaciones de productos que no se ajustan a sus necesidades físicas, tecnológicas o económicas, o lo que es peor aún, caer con mayor facilidad en ofertas y promociones ficticias que suelen concluir en estafas. Por ejemplo, un sistema de IA que sugiere dispositivos tecnológicos complejos o costosos sin considerar la capacidad de uso o el presupuesto de los adultos mayores puede generar frustración, confusión y gastos innecesarios. Interfaces amigables y recomendaciones adaptadas a sus capacidades y presupuesto son esenciales para reducir este impacto negativo.De igual modo, la baja alfabetización digital y el acceso limitado a la tecnología pueden llevar a decisiones de compra impulsivas o basadas en información mal interpretada o incluso engañosa e ilícita, ya que las interfaces y recomendaciones no están adaptadas a sus niveles de comprensión tecnológica. Más aún cuando la publicidad o la interfaz imita de manera muy real a las plataformas comerciales reales, impidiendo notar sus diferencias.

Así, la situación de hipervulnerabilidad en el consumo trasciende al ámbito tecnológico, colocando a ciertos grupos de consumidores en una clara desventaja algorítmica. Esta dinámica crea un entorno de vulnerabilidad agravada donde los consumidores ya desfavorecidos enfrentan barreras adicionales en su interacción con el mercado digital. La exclusión digital se intensifica, y las brechas económicas pueden ampliarse aún más, perpetuando un ciclo de desigualdad.

La hipervulnerabilidad algorítmica, como fenómeno que magnifica las desigualdades existentes a través del uso de algoritmos en plataformas digitales que operan sin considerar las necesidades específicas de este colectivo, perpetúa una exclusión digital que refuerza las desigualdades económicas y sociales, haciendo que los consumidores en situación de doble desventaja sean aún más susceptibles a abusos y discriminación en el mercado digital.

Para abordar este desafío, es esencial que los diseñadores y desarrolladores de algoritmos consideren la diversidad de los consumidores a los que sirven y adopten enfoques que minimicen los sesgos. Esto incluye la utilización de conjuntos de datos más representativos, la implementación de pruebas y ajustes constantes para detectar y corregir sesgos, y la participación de diversas perspectivas en el proceso de diseño y desarrollo.Además, debe haber una mayor transparencia en cómo se toman las decisiones algorítmicas y en cómo los consumidores pueden interactuar y corregir estas decisiones cuando se perciben como injustas o inapropiadas.

Al respecto, podemos enunciar algunas estrategias para mitigar los sesgos en los sistemas de inteligencia artificial y promover que tanto el acceso a bienes y servicios como su consumo se realice en respeto de la dignidad de los consumidores y usuarios.

En primer lugar, la clave podría estar en la inclusión del enfoque de «human-in-the-loop» (HITL). Esto significa mantener la supervisión humana en todas las etapas del ciclo de vida de la IA, desde la fase de diseño y desarrollo hasta el despliegue y la operación continua. La supervisión humana permite la intervención directa cuando se detectan anomalías o sesgos, asegurando que las decisiones críticas sean revisadas y validadas por humanos. Es decir que, a pesar de la automatización, siempre habrá una persona involucrada para supervisar, tomar decisiones y realizar acciones cuando sea necesario (12). Este enfoque reduce el riesgo de sesgos no intencionados y mejora la capacidad de la IA para manejar situaciones complejas y dinámicas que requieren juicio humano. Por ejemplo, la intervención humana puede ser crucial en la fase de entrenamiento del algoritmo, donde los datos deben ser evaluados para asegurar su representatividad y evitar la introducción de sesgos; en la fase de ajuste de modelos, donde las decisiones del algoritmo son verificadas para su alineación con criterios éticos; y en la fase de implementación, donde los resultados deben ser monitoreados para detectar cualquier comportamiento inesperado o sesgado.

Otra estrategia podría ser la diversificación de datos. Asegurar que los datos utilizados para entrenar los algoritmos sean representativos de la diversidad real de la población es crucial. Esto implica recopilar datos de múltiples grupos demográficos, regiones y contextos socioeconómicos, evitando la sobrer epresentación de cualquier segmento.La integración de datos provenientes de diferentes fuentes y el uso de técnicas como el muestreo estratificado pueden ayudar a equilibrar la representación de minorías y grupos vulnerables. Además, los datos deben ser constantemente actualizados para reflejar cambios en la sociedad y en los patrones de consumo. Implementar auditorías regulares para identificar y corregir sesgos en los conjuntos de datos refuerza la equidad del algoritmo.

De igual manera, resulta clave el desarrollo de políticas de transparencia y explicabilidad en el diseño e implementación de algoritmos. Los sistemas de IA deben ser diseñados para ser comprensibles y accesibles, permitiendo a los usuarios entender cómo se toman las decisiones y qué factores influyen en las recomendaciones. Esto no solo aumenta la confianza de los usuarios en la tecnología, sino que también permite una supervisión efectiva y la identificación de posibles sesgos. Incorporar herramientas de explicabilidad, como descripciones claras y resúmenes visuales de cómo se generan las recomendaciones, facilita que los desarrolladores y usuarios detecten y aborden cualquier sesgo que pueda surgir. Además, involucrar a equipos diversos en el proceso de desarrollo y someter los algoritmos a pruebas con diferentes grupos de usuarios ayuda a garantizar que los sesgos no se perpetúen y que los sistemas de IA se adapten a una variedad de contextos y necesidades.

En todo caso, siempre resultará indispensable la capacitación y una real conciencia sobre la existencia de posibles sesgos para todos los involucrados en el diseño, desarrollo y operación de sistemas de IA. Proporcionar formación continua sobre los impactos de los sesgos algorítmicos y la importancia de la equidad en la IA ayuda a cultivar una cultura de responsabilidad y ética entre sus desarrolladores, diseñadores y operadores. Esto incluye la implementación de talleres y seminarios sobre ética de la IA, análisis de casos reales de sesgos algorítmicos, y la creación de comités de revisión ética que supervisen las decisiones de diseño y despliegue de los sistemas.Equipar a los equipos con el conocimiento y las herramientas para identificar y mitigar sesgos puede promover una toma de decisiones más consciente y evitar la perpetuación de desigualdades a través de la tecnología.

III. BREVE ANÁLISIS DE ALGUNOS CASOS DE USO

a. Chatbots y asistentes virtuales.

Los asistentes virtuales han transformado significativamente el acceso al consumo al automatizar muchas interacciones de servicio al cliente, lo cual tiene tanto aspectos positivos como negativos.

Por un lado, esta transformación permite a los consumidores obtener información y resolver problemas de manera más rápida y eficiente, ofreciendo respuestas inmediatas y mayor disponibilidad horaria. Por otro lado, esta misma automatización puede resultar frustrante para los usuarios cuando no encuentran la opción deseada, enfrentan interfaces poco claras, o limitan o restringen el contacto humano, lo cual puede llevar a la pérdida de tiempo, desmotivación, frustración y enojo en el consumidor al no poder comunicarse con un asesor real o resolver su consulta.

Estas herramientas utilizan procesamiento de lenguaje natural para interpretar y responder a las consultas en lenguaje cotidiano, lo que facilita a los usuarios obtener respuestas inmediatas a preguntas comunes, realizar transacciones y acceder a servicios sin necesidad de interactuar con un representante humano.

Esta automatización debe estar cuidadosamente diseñada no solo para ser eficaz en su función sino también garantizar que la información suministrada sea adecuada, clara, precisa y veraz, en línea con los requisitos del artículo 4 de la Ley 24.240.

El diseño por defecto de estos sistemas debe priorizar la accesibilidad y la claridad para evitar confundir a los consumidores o inducirlos a decisiones incorrectas. Esto implica que los chatbots deben ser capaces de comunicar términos y condiciones, políticas de privacidad, y detalles de productos o servicios de una manera transparente y comprensible. La interfaz debe estar diseñada para facilitar la navegación y la comprensión, evitando tecnicismos innecesarios que puedan resultar en malentendidos.Por ello, éstos deben estar programados para reconocer y responder a señales de incertidumbre o confusión en los usuarios, proporcionando explicaciones adicionales o redirigiéndolos a agentes humanos cuando sea necesario.

Además, siempre debe existir la posibilidad de contactar a una persona humana en cualquier etapa de la interacción para respetar la dignidad del consumidor y garantizar que sus necesidades sean atendidas. Un sistema bien diseñado debe ofrecer una transición fluida a un representante humano, asegurando que los usuarios no se sientan atrapados en bucles automatizados sin salida. Esto no solo respeta la dignidad del usuario al reconocer el valor de la interacción humana, sino que también fortalece la confianza en la empresa al demostrar un compromiso con el servicio al cliente integral y personalizado.

b. Sistemas de Pricing Dinámico

Los sistemas de pricing dinámico están transformando la manera en que las empresas establecen precios para sus productos y servicios. Utilizando datos en tiempo real y algoritmos avanzados, estos sistemas ajustan los precios según diversas variables como la demanda actual, el nivel de inventario, el comportamiento de los consumidores y las condiciones del mercado.

La capacidad de estos sistemas para analizar grandes volúmenes de datos y responder instantáneamente a cambios en el entorno del mercado permite a las empresas maximizar sus ingresos al optimizar los precios en función de la disposición a pagar de los consumidores y las tendencias emergentes.

En el transporte aéreo, por ejemplo, los precios de los pasajes pueden cambiar varias veces al día en función de la demanda de asientos, la proximidad a la fecha de vuelo y la competencia en rutas específicas. De manera similar, los hoteles ajustan sus tarifas en función de la ocupación prevista, eventos locales y la demanda estacional. En el comercio electrónico, las plataformas utilizan precios dinámicos para ofrecer descuentos y promociones personalizadas, basándose en el historial de navegación y compras de los consumidores.Esta flexibilidad permite a las empresas no solo atraer más clientes, sino también gestionar de manera más efectiva su inventario y recursos, adaptándose rápidamente a las fluctuaciones del mercado para asegurar una ventaja competitiva.

Sin embargo, la implementación de precios dinámicos plantea importantes consideraciones éticas relacionadas con la transparencia y la equidad. Los consumidores pueden percibir las variaciones de precios como arbitrarias o manipuladoras, especialmente si éstas no son comprensibles o parecen injustificadas. Un aspecto preocupante es la posibilidad de que los precios dinámicos se ajusten en función de la economía del usuario o su geolocalización. Por ejemplo, los sistemas pueden cobrar precios más altos a los usuarios en áreas con mayor poder adquisitivo o en momentos de alta demanda, lo que puede ser percibido como discriminatorio. Además, los precios pueden variar según el historial de compras o de búsqueda de los usuarios, ofreciendo descuentos a unos mientras se cobran tarifas más altas a otros, basándose en el análisis de su comportamiento o en la probabilidad de que completen una compra a un precio más alto. Esta práctica, conocida como «precio personalizado», si no se gestiona adecuadamente, puede erosionar la confianza de los consumidores, quienes pueden sentirse engañados si perciben que los precios que se les ofrecen no son justos o que están siendo manipulados de acuerdo con sus datos personales.

Para mitigar estos riesgos, es necesario que las empresas adopten políticas claras y transparentes que expliquen el razonamiento detrás de la fijación de precios dinámicos. La transparencia en la comunicación sobre cómo y por qué se ajustan los precios ayuda a educar a los consumidores y a justificar los cambios de precios, lo que puede contribuir a una percepción más positiva y a la aceptación de esta práctica. Además, las empresas deben asegurarse de que sus estrategias de precios no exploten a los consumidores vulnerables, estableciendo límites éticos que equilibren la optimización de ingresos con la equidad y la confianza del consumidor.

c.Personalización y Publicidad Dirigida

La publicidad comercial es el recurso del que se valen los proveedores para colocar sus productos y servicios en el mercado (13).

Sin embargo, la publicidad no es solamente un mecanismo de artracción de potenciales consumidores sino que, tal como lo establece la Ley de Defensa del Consumidor, el contenido de la publicidad integra el contrato, y, por tanto, obliga a su oferente (14).

La publicidad dirigida ha emergido como uno de los usos más prominentes de la inteligencia artificial en el consumo digital, revolucionando la manera en que los consumidores interactúan con las marcas y productos. Tambussi la define como «el conjunto de medios destinados a informar al público y a convencerlo de la necesidad de adquirir un bien o servicio. Su acción a su vez estimula, sugiere y persuade» (15). Así, utilizando algoritmos avanzados y análisis de datos, la publicidad automatizada o programática ofrece anuncios personalizados a los usuarios en función de su comportamiento en línea, características demográficas, y contexto actual.

Este enfoque permite a las empresas maximizar la relevancia de sus campañas publicitarias, mostrando a los consumidores anuncios que se alinean estrechamente con sus intereses y necesidades, lo que incrementa significativamente la probabilidad de consumo.

Sin embargo, no todo lo que brilla es oro, si bien esta práctica en ocasiones puede ser útil también hay que reconocer que a través de la publicidad no solo se informa al consumidor sobre los productos disponibles, sino que también se construyen y moldean decisiones de compra al anticipar sus preferencias, incluso generando nuevas necesidades que pueden no alinearse con las necesidades reales del consumidor o usuario.

La publicidad dirigida basada en IA utiliza datos como el historial de navegación, el comportamiento de usuarios, el micrófono de los dispositivos por medio de los cuales se navega, la geolocalización del usuario y toda interacción con contenidos digitales para crear perfiles detallados de los consumidores. Estos perfiles permiten a los sistemas decidir qué anuncios mostrar a cada usuario en un momento dado.Por ejemplo, un usuario que recientemente buscó bicicletas en línea puede comenzar a ver anuncios de accesorios para bicicletas en sus redes sociales. Mientras que esta personalización puede mejorar la experiencia del usuario al hacer que los anuncios sean más relevantes, también puede percibirse como invasiva si el usuario no está consciente de la recopilación y uso de sus datos personales. Además, en algunos casos, los consumidores pueden ser inundados con anuncios repetitivos que no solo invaden su espacio digital, sino que también pueden ejercer una presión indebida para comprar, lo que refleja un uso abusivo de la tecnología.

En la práctica, el equilibrio entre la personalización efectiva y la invasión de la privacidad es delicado y requiere un marco ético robusto que respete los derechos del consumidor.

Para ello, resulta fundamental promover un uso sano de las herramientas publicitarias. Una publicidad sana debe respetar la privacidad de los consumidores, informando cómo utilizan los datos de los consumidores para fines publicitarios y exigiendo su consentimiento explícito para la recolección y uso, y evitando emplear tácticas manipuladoras que puedan inducir a error o presionar indebidamente a los usuarios.

De esta manera, las empresas pueden construir relaciones de confianza con sus consumidores, asegurando que la publicidad dirigida sirva para informar y facilitar, en lugar de explotar, contribuyendo así a un entorno de consumo más justo y digno.

IV. REFLEXIONES FINALES

El impacto de la IA en las relaciones de consumo es profundo y multifacético, afectando desde la personalización de las experiencias de compra hasta la transparencia en la fijación de precios y la equidad en las decisiones automatizadas. Si bien la IA ofrece oportunidades significativas para mejorar la eficiencia y la satisfacción del consumidor y usuario, también plantea desafíos importantes en términos de privacidad, libertad y equidad.

Para aprovechar plenamente el potencial de la IA en el contexto del consumo, es esencial desarrollar políticas y prácticas que equilibren la innovación con la responsabilidad ética.Los sistemas de IA deben diseñarse para apoyar el consumo digno, permitiendo a los usuarios tomar decisiones informadas y autónomas sin estar sujetos a manipulaciones o influencias indebidas.

La tecnología debe actuar como una herramienta que empodere a los consumidores, promoviendo un entorno de consumo digital que sea inclusivo, justo y ético, donde todas las personas puedan participar plenamente y sin condicionamientos en el mercado digital.

Esto requiere un compromiso continuo con la equidad, la transparencia, y la supervisión humana, para que la inteligencia artificial sirva al bienestar de toda la sociedad, respetando y fomentando los derechos fundamentales de cada individuo en particular y de la comunidad en general.

———-

(1) BOSTROM, N., «Superinteligencia. Caminos, peligros, estrategias». Tell, Madrid, 2016, p. 29.

(2) SOBRINO, W., Contratos. Neurociencias e Inteligencia Artificial. Ed. La Ley, Buenos Aires, 2020, p. 245.

(3) ROUHIAINEN, L., «Inteligencia artificial: 101 cosas que debes saber hoy sobre nuestro futuro». Editorial Planeta, Barcelona, 2018, p. 19.

(4) ZHU, B. O., & HURTADO, R., An Efficient Recommender System Method Based on the Numerical Relevances and the Non-Numerical Structures of the Ratings, IEEE Access, 2018, ps. 49935- 49954. https://doi.org/10.1109/ACCESS.2018.2868464

(5) CORVALÁN, J., «Perfiles Digitales Humanos». Ed. La Ley, Buenos Aires, 2020, ps. 35-36.

(6) Janneke GERARDS y Raphaele XENIDIS, «Algorithmic discrimination in Europe: Challenges and opportunities for gender equality and non-discrimination law», European Commission, 2021, p. 47, en https://op.europa.eu/en/publication-detail/-/publication/082f1dbc-821d11eb-9ac9-01aa75ed71a1 [accedido el 07/07/2024].

(7) Lindsey ANDERSEN, «Human Rights in the age of artificial intelligence», 2018, p. 11, en https://www.accessnow.org/cms/assets/uploads/2018/11/AI-and-Human-Rights.pdf [accedido el 07/07/2024].

(8) AMUNÁTEGUI PERELLÓ, Carlos y MADRID Raúl, «Sesgo e Inferencia en Redes Neuronales ante el Derecho», en C. Aguerre (Ed.), Inteligencia Artificial en América Latina y el Caribe. Ética, Gobernanza y Políticas, Bs. As., CETyS Universidad de San Andrés, 2020, p.5, https://guia.ai/documentos-2020/ (Accedido el 07/07/2024).

(9) Parlamento Europeo, El impacto del Reglamento General de Protección de Datos (GDPR) en la inteligencia artificial, Bruselas, 2020, p. 21. https://www.europarl.europa.eu/RegData/etudes/STUD/2020/641530/EPRS_STU(2020)641530_ EN.pdf. (Accedido el 07/07/2024).

(10) Ídem

(11) Disposición 137/2024 la Subsecretaría de Defensa del Consumidor y Lealtad Comercial

(12) RUANO, María Candela y De Venezia, Lucas,«»Inteligencia artificial y justicia: Navegando los dilemas éticos de la revolución digital». Ed. La Ley, Buenos Aires, 2023, p. 3. Cita online: TR LALEY AR/DOC/1538/2023

(13) Carlos TAMBUSSI, «La protección jurídica del consumidor electrónico en la Argentina» Editorial Dykinson. Madrid. España ISBN: 9788411703727 ISBN electrónico: 978-84-1170-489-2, 234 paginas. Colección: Cátedra Euroamericana de protección jurídica de los consumidores.

(14) Art. 7 de la Ley 24.240

(15) Tambussi, Carlos E. «La publicidad prohibida en el nuevo Código» La Ley, 2015-D-770; LL, On Line, AR/DOC/2036/2015.

(*) Abogada por la Universidad de Buenos Aires (Diploma de Honor). Especialista en Contratos y Daños por la Universidad de Salamanca, España. Posgraduada en Inteligencia Artificial y Derecho por la Facultad de Derecho de la Universidad de Buenos Aires. Phd en Derecho con orientación en Derechos Constitucional y Derechos Humanos por la Universidad de Palermo (Tesis en elaboración). Fundadora de la Asociación Civil por el Cumplimiento de los Derechos Humanos (ACuDH). CoDirectora del Labotario de Inteligencia Artificial e Innovación del Observatorio en Derecho, Tecnología e Innovación de la Universidad del Museo Social Argentino. Docente UBA, UMSA, UNLP, UNSA, UNNE, UM. Relatora de la Unidad Especializada en Relaciones de Consumo del Ministerio Público de la Ciudad de Buenos Aires.

#Doctrina Empoderarse para decidir: desafíos de la IA en las relaciones de consumo


Compartilo en Twitter

Compartilo en WhatsApp

Leer en https://aldiaargentina.microjuris.com/2024/09/17/doctrina-empoderarse-para-decidir-desafios-de-la-ia-en-las-relaciones-de-consumo/

Deja una respuesta