La ética de la inteligencia artificial
¿Qué es la IA ética?
La IA no es ética, al igual que un destornillador o un martillo no es ético. La IA se puede utilizar de forma ética o no ética. Sin embargo, lo que hace la IA es plantear varias cuestiones éticas.
Los sistemas de inteligencia artificial aprenden de los datos pasados y aplican lo que han aprendido a los datos nuevos. El sesgo puede aparecer si los datos antiguos que se utilizan para entrenar el algoritmo no son representativos o tienen un sesgo sistémico. Si está creando un algoritmo de detección de cáncer de piel y la mayoría de los datos de entrenamiento se recopilaron de hombres blancos, no será un buen predictor de cáncer de piel en mujeres negras. Los datos sesgados conducen a predicciones sesgadas.
La forma en que las características se ponderan en los algoritmos también puede crear sesgos. Y la forma en que el desarrollador que crea el algoritmo ve el mundo y lo que esa persona piensa que es importante (qué características incluir, qué características excluir) puede generar sesgos. La forma en que se interpreta la salida de un algoritmo también puede estar sesgada.
¿Cómo se ha regulado la IA, si es que se ha regulado?
Hasta ahora, la mayor parte de la regulación se ha realizado a través de “leyes blandas”: pautas éticas, principios y normas voluntarias. Hay miles de leyes blandas y algunas han sido redactadas por corporaciones, grupos industriales y asociaciones profesionales. En general, existe un cierto grado de consenso sobre lo que se consideraría un uso adecuado o aceptable de la IA; por ejemplo, la IA no debería utilizarse de forma dañina para perpetuar el sesgo, la IA debería tener cierto grado de transparencia y explicabilidad, debería ser válido y confiable para su propósito previsto.
El esfuerzo más completo hasta la fecha para generar una ley que regule la IA fue propuesto en abril de 2021 por la Unión Europea. Este proyecto de legislación de la UE es el primer reglamento completo sobre IA. Clasifica la IA en categorías de riesgo. Algunos usos de la IA se consideran inaceptablemente de alto riesgo y tienden a ser cosas como usar la IA para manipular psicológicamente a las personas. Otro uso prohibido es la IA para determinar puntajes sociales, donde una persona es monitoreada y obtiene puntos por hacer algo deseable y pierde puntos si hace algo indeseable. Un tercer uso prohibido es la vigilancia biométrica en tiempo real.
La siguiente categoría son las herramientas de inteligencia artificial de alto riesgo, como las que se utilizan en la medicina y los vehículos autónomos. Una empresa debe cumplir con todo tipo de requisitos, realizar evaluaciones de riesgos, mantener registros, etc. antes de que se pueda utilizar dicha IA. Luego están los usos de bajo riesgo, como los chatbots web que responden preguntas. Tal IA requiere transparencia y divulgación, pero no mucho más.
¿Puede la IA ajustarse a los valores humanos o las expectativas sociales?
Es muy difícil entrenar un algoritmo para que sea justo si tú y yo no podemos ponernos de acuerdo en una definición de justicia. Puede pensar que la equidad significa que el algoritmo debería tratar a todos por igual. Podría creer que la justicia significa lograr la equidad o compensar las desigualdades pasadas.
Nuestros valores humanos, antecedentes culturales y expectativas sociales a menudo difieren, lo que dificulta determinar qué debe optimizar un algoritmo. Simplemente, todavía no tenemos consenso.
En el aprendizaje automático, a menudo no sabemos qué está haciendo el sistema para tomar decisiones. ¿Son importantes la transparencia y la explicabilidad en la IA?
Esa es una pregunta difícil de responder. Definitivamente hay algo que decir a favor de la transparencia y la explicabilidad, pero en muchas circunstancias puede ser lo suficientemente bueno si la IA se ha probado lo suficiente como para demostrar que funciona para el propósito previsto. Si un médico prescribe un medicamento, es posible que se desconozca el mecanismo de acción bioquímico, pero si se ha demostrado en ensayos clínicos que el medicamento es seguro y efectivo, eso puede ser suficiente.
Otra forma de ver esto es, si elegimos usar una IA menos sofisticada que podamos explicar más fácilmente, pero no es tan precisa o confiable como un algoritmo más opaco, ¿sería una compensación aceptable? ¿A cuánta precisión estamos dispuestos a renunciar para tener más transparencia y explicabilidad?
Puede depender de para qué se esté utilizando el algoritmo. Si se usa para condenar a personas, quizás la inteligencia artificial explicable sea más importante. En otras áreas, quizás la precisión sea el criterio más importante. Todo se reduce a un juicio de valor.