La Nación Economía: Una ética para la inteligencia artificial

Una ética para la inteligencia artificial

opinion

La ética supone la ejecución libre de conductas morales que persiguen el bien común y la felicidad de la persona. Se sustenta en la voluntad, la libre elección y el desarrollo de las virtudes humanas. Una conducta ética conlleva un obrar responsable del ser humano que utiliza la razón para tomar decisiones, asume las consecuencias de sus propios actos y es coherente entre lo que dice y lo que hace.

La ética ha sido estudiada por distintos autores a lo largo de la historia, desde Aristóteles hasta Leonardo Polo, pero una particular consideración ha resurgido con las ideas del transhumanismo, que, como movimiento cultural e intelectual, pregona la utilización de las tecnologías para transformar la condición humana de la mano, entre otras cosas, de la utilización de los sistemas de inteligencia artificial.

Recordemos que la inteligencia artificial (IA) es la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables con las que realiza la mente humana.

La IA se nutre de técnicas de “minería de datos, machine learning y deep learning”, que permiten definir patrones de conducta y la toma de decisiones. Se integra con algoritmos con capacidad de aprendizaje automático, esto es, la capacidad de aprender por sí mismos de la información a la que acceden de manera que pueden considerar experiencias propias pasadas para generar una nueva respuesta adaptada a una misma situación.

Los mecanismos de IA se aplican actualmente a todas las actividades humanas relevantes, desde la salud (genética “a medida”), la robótica, el comercio electrónico, la industria de armamentos, las infraestructuras críticas, la seguridad nacional, la prevención de acciones terroristas y otras tantas, de mayor o menor relevancia.

Y esta industria es dirigida por seres humanos “supuestamente éticos e inteligentes” frente a una evidente crisis del comportamiento ético del “hombre inteligente” que transitamos en la actualidad: nos sobran los motivos (al decir de Joaquín Sabina) y ejemplos para sostener este juicio de valor.

Si transitamos entonces una evidente crisis del comportamiento ético del “hombre inteligente”: ¿qué podemos esperar de la inteligencia artificial creada por el “hombre inteligente”? La respuesta no parece feliz, y el derecho poco está haciendo al respecto.

Frente a esta realidad, algunos países europeos o entidades como la Organización para la Cooperación y el Desarrollo Económicos (OCDE) han ensayado lineamientos, principios éticos o normas de “deber ser” aplicables a la IA, que han quedado relegadas al papel más que a la práctica.

En abril, la Comisión Europea presentó un proyecto de legislación integral para regular la IA en la Unión Europea (“Reglamento aplicable al uso de IA”), que persigue poner límites a los sistemas de vigilancia masivos que utilizan identificación biométrica (el caso de China), como asimismo prevenir y sancionar las decisiones automatizadas y sesgadas por raza o religión, entre otras tantas situaciones propias del último capítulo de la serie Black Mirror. Nos espera un largo camino hasta que el reglamento se concrete con fuerza de ley.

En Estados Unidos se mantiene la idea de brindar una mayor capacidad de expansión a la industria y no se vislumbra la intención concreta de generar una regulación integral de una industria protegida en territorio estadounidense.

En América Latina y en la Argentina, en particular, no existe ninguna normativa que regule la industria de la IA ni principios éticos que deban regirla.

En relación con las conductas morales, en el ámbito jurídico, nuestra legislación ha receptado, tradicionalmente, dos estándares de conducta asociados a la ética que han sido reconocidos por la mayoría de las normativas vigentes en América Latina: el “buen padre de familia” y “el buen hombre de negocios”.

Un buen padre o una buena madre de familia cuidan de sus hijos, les procuran guarda, alimento y esencialmente cariño, amor y respeto. Lo pregona el derecho, pero surge de la propia lógica del sentido común.

La buena persona de negocios actúa responsablemente en la conducción de las actividades empresariales propias o ajenas, planifica, practica la honestidad y protege el interés de quienes adquieren sus productos o utilizan sus servicios.

Estos principios estandarizados suelen tomarse en cuenta para resolver conflictos que involucran sistemas de IA, como asimismo normas generales que marcan niveles de responsabilidad en el uso de estas tecnologías. En efecto, la utilización de tecnologías de IA puede encuadrarse en el concepto de actividad riesgosa previsto en el artículo 1757 del Código Civil y Comercial de la Nación, por la que debe responder, en forma objetiva, el dueño o gobernador del algoritmo, esto es, quien ejecuta la actividad, se sirve u obtiene provecho de ella (artículo 1758 del mismo texto legal).

En por eso que, aplicando los principios generales mencionados y la normativa legal expuesta, en el caso de daños y/o perjuicios sufridos por una persona derivados de la utilización de sistemas de IA deberá responder quien los gobierna (dueño o creador) y las personas que tienen a su cargo el diseño y funcionamiento de esos sistemas.

Todo ello hasta que una normativa local, clara, seria y responsable defina las reglas de juego aplicables a la industria… Esperemos sentados.

En conclusión, la IA no solo requiere regulación específica, sino también que quienes desarrollan la actividad practiquen un comportamiento ético que respete los derechos y la autonomía de las personas.

Por eso es fundamental que las empresas y el Estado desarrollen programas de capacitación en prácticas éticas aplicadas a la IA para quienes intervengan en la formación de algoritmos inteligentes.

En definitiva, la educación sobre los principios y las conductas éticas de la IA será uno de los pilares esenciales para evitar futuros desmanes de una tecnología que actualmente avanza como el correcaminos, en un espacio sin ley.

Abogado y consultor especialista en derecho digital, privacidad y datos personales. Director del Programa Ejecutivo en Derecho y Comunicación Digital de la Escuela de Política, Gobierno y Relaciones Internacionales de la Universidad Austral. Profesor Facultad de Derecho UBA

https://www.lanacion.com.ar/opinion/una-etica-para-la-inteligencia-artificial-nid20072021/


Compartilo en Twitter

Compartilo en WhatsApp

Leer en https://www.lanacion.com.ar/opinion/una-etica-para-la-inteligencia-artificial-nid20072021/

Deja una respuesta