Los académicos sostienen que la FTC puede aplicar su autoridad existente para combatir la IA discriminatoria.
Los nuevos problemas regulatorios a menudo requieren nuevas leyes y mandatos de agencias. Pero es posible que un regulador ya tenga toda la autoridad que necesita para enfrentar uno de los mayores problemas de la era de la inteligencia artificial (IA).
En un artículo reciente, Andrew Selbst de UCLA Law y Solon Barocas de Microsoft sostienen que la Comisión Federal de Comercio (FTC) tiene fortalezas únicas que podría utilizar para hacer que la IA sea menos discriminatoria.
Fundamentalmente, la FTC podría tomar medidas audaces contra la discriminación basada en la IA bajo su autoridad legal existente, sin ninguna acción adicional del Congreso, sostienen Selbst y Barocas.
Según Selbst y Barocas, el problema de la discriminación basada en la IA tiene muchas soluciones posibles. A veces, las empresas en ámbitos regulados por leyes de derechos civiles (crédito y vivienda, por ejemplo) discriminan y las personas pueden demandarlas en virtud de esas leyes.
Pero algunos casos de discriminación basada en la IA quedan fuera del ámbito de la ley antidiscriminación, explican Selbst y Barocas. Ponen el ejemplo de un teléfono móvil cuyo software de reconocimiento facial sistemáticamente funciona peor en individuos de determinados grupos demográficos. Para estas formas más diversas y generalizadas de discriminación basada en la IA, Selbst y Barocas sugieren que los individuos necesitan recursos legales más allá de la ley antidiscriminación.
Específicamente, Selbst y Barocas argumentan que la autoridad existente de la FTC bajo la Sección 5 de la Ley de la FTC para frenar las prácticas comerciales desleales es adecuada para la tarea de evitar que las empresas utilicen IA discriminatoria. Escriben que la Sección 5 puede “replicar los éxitos de las leyes de derechos civiles” y tener un alcance aún más amplio que esas leyes.
La Sección 5 declara ilegal que las empresas practiquen actos desleales en el comercio, siempre que esos actos puedan dañar sustancialmente a los consumidores, entre otros factores. Según esta disposición, la FTC puede determinar que una herramienta de IA discriminatoria perjudica significativamente a los consumidores, señalan Selbst y Barocas.
Respaldan una definición más amplia de “daño sustancial” que incluye daños a la “posición social de un grupo de consumidores en general”. Si una herramienta de IA tiene prejuicios contra un grupo demográfico, la FTC puede etiquetar su uso como una práctica desleal, porque la herramienta ofende la dignidad de todo un grupo social, lo que Selbst y Barocas afirman que son delitos “sustanciales” según la Sección 5.
Pero una empresa que utilice una herramienta de IA discriminatoria podría defenderse argumentando que la herramienta proporciona beneficios al consumidor que superan sus daños. De hecho, la Sección 5 requiere este tipo de análisis de costo-beneficio.
Selbst y Barocas responden que históricamente la FTC ha realizado análisis de costo-beneficio relativamente simples en las acciones de cumplimiento de la Sección 5. Sin embargo, señalan que cuando la FTC ha tomado medidas enérgicas contra la discriminación en particular, exige que los costos de la empresa sean “estrictamente necesarios para lograr los beneficios”.
Si la FTC puede demostrar que el beneficio general de un producto no excusa los daños discriminatorios planteados por características particulares de ese producto, entonces la agencia probablemente podría satisfacer esa prueba, sugieren Selbst y Barocas.
La FTC no sólo tiene autoridad para abordar la IA discriminatoria, sino que también tiene ventajas comparativas sobre otras formas de acciones legales y otras agencias reguladoras, sostienen Selbst y Barocas.
Señalan que las leyes contra la discriminación limitan a los demandantes a demandar a categorías específicas de tomadores de decisiones. Por ejemplo, la ley laboral federal se aplica a empleadores, agencias de empleo y organizaciones laborales, pero no a proveedores de evaluaciones utilizadas para determinar la elegibilidad para ciertos trabajos específicos. Selbst y Barocas afirman que estas distinciones cierran ciertas vías de reparación legal a los consumidores.
Por el contrario, la FTC podría tomar medidas contra cualquier actor que utiliza la IA con fines discriminatorios, argumentan Selbst y Barocas. Estos actores incluyen tanto a proveedores como a clientes, además de entidades que ya cubren las leyes contra la discriminación, como empleadores, instituciones de crédito y propietarios.
Una acción de la FTC también evita otras barreras comunes en las demandas contra la discriminación, como la necesidad de formar una demanda colectiva, señalan Selbst y Barocas. Y según la Sección 5, la FTC sólo debe probar la probabilidad de daño, mientras que los demandantes ante un tribunal federal tienen que alegar daños “concretos” y “particularizados”.
Selbst y Barocas sostienen además que la FTC está mejor posicionada que otros organismos reguladores para manejar demandas contra la IA discriminatoria. Por ejemplo, la FTC puede investigar, tomar medidas contra empresas en sus propios tribunales, demandar ante un tribunal federal y emitir normas.
De hecho, la FTC se ha interesado recientemente en abordar la IA discriminatoria, observan Selbst y Barocas. En el lapso de unos pocos meses el año pasado, la FTC anunció una regla propuesta destinada a proteger la seguridad de los datos y abordar la discriminación algorítmica y también argumentó por primera vez en una acción de cumplimiento que la Ley de la FTC prohíbe algunas formas de discriminación.
En comparación, la Comisión para la Igualdad de Oportunidades en el Empleo no puede emitir normas ni iniciar acciones de ejecución interna para reclamos del sector privado, explican Selbst y Barocas. También enfatizan que el Departamento de Vivienda y Desarrollo Urbano de Estados Unidos a menudo tiene que iniciar costosos litigios para acabar con la discriminación en materia de vivienda.
Pero para que la FTC tenga éxito en impedir la discriminación basada en la IA, la agencia tendrá que aprovechar sus recientes esfuerzos de reglamentación y aplicación de la ley, argumentan Selbst y Barocas.
La FTC también tendrá que superar algunos obstáculos potenciales, advierten Selbst y Barocas. Por ejemplo, destacan la disidencia de dos comisionados de la FTC en una acción de ejecución en la que la agencia sostuvo que las tarifas racialmente discriminatorias y los costos de endeudamiento de un grupo de concesionarios de automóviles violaban la Sección 5. Selbst y Barocas predicen que las organizaciones proempresariales, aprovechando esa disidencia, impugnará en los tribunales la aplicación de la FTC contra la IA discriminatoria.
Si la FTC puede superar esos obstáculos, podría llenar algunos vacíos en las leyes de derechos civiles y adoptar un enfoque más flexible e integral para combatir la discriminación basada en la IA, concluyen Selbst y Barocas.