Ir al contenido principal

Algoritmos, inteligencia artificial y equidad en tasaciones de vivienda

En la CFPB estamos tomando otro paso para asegurarnos de que las decisiones tomadas por los sistemas y modelos automáticos, a veces mercadeados como inteligencia artificial (IA), sean responsables. Estamos proponiendo normativa para hacer que las valuaciones de viviendas, calculadas por algoritmos sean más justas y exactas. Esta iniciativa es uno de muchos pasos que estamos tomando para garantizar que los algoritmos y la IA cumplan con las leyes existentes.

Conjuntamente con la Junta de Gobernadores del Sistema de la Reserva Federal, la Corporación Nacional de Garantía de Depósitos, la Agencia Federal para el Financiamiento de la Vivienda, la Administración Nacional de Cooperativas de Crédito y la Oficina del Controlador de la Moneda, estamos proponiendo una normativa que, de ser finalizada, aseguraría que las tasaciones automáticas de viviendas sean justas y no discriminatorias. Las medidas de protección en la normativa propuesta no constituyen una solución mágica que resolverá todos los problemas, pero representa el reconocimiento de los riesgos que presentan las tasaciones algorítmicas. La normativa propuesta también soporta nuestro trabajo como miembros del Grupo de Tarea Inter Agencial para la Equidad en la Tasación y Valuación de Propiedades (en inglés), PAVE por sus siglas en inglés.

Las tasaciones algorítmicas que utilizan lo conocido como modelos automáticos de valuación, pueden ser usadas como verificación a una tasación hecha por una persona, o sustituirla. A diferencia de una tasación o apreciación hecha por un corredor de propiedades, en las cuales, una persona revisa la propiedad y evalúa cómo se compara ésta con otras ventas, las valuaciones automáticas se apoyan en fórmulas matemáticas y en máquinas que procesan números para producir un valor estimado de la misma.

Mientras que estas máquinas procesadoras de números parecieran ser capaces de remover los prejuicios humanos de las ecuaciones, en realidad, no pueden hacerlo. Basándose en datos que han sido introducidos en ellas y en los algoritmos que usan, los modelos automáticos pueden incluir los mismos prejuicios humanos que deberían corregir. Y el diseño de estos modelos y algoritmos puede reflejar los prejuicios y desconocimiento de sus desarrolladores. De hecho, los modelos automáticos de tasación pueden dificultar la eliminación de los prejuicios en las tasaciones dado que los algoritmos usados, disfrazan los datos y diseño prejuiciados, con un falso manto de objetividad.

Algoritmos inexactos o prejuiciados pueden causar serios daños. Una vivienda sobrevaluada puede encadenar a su propietario a una hipoteca impagable, e incrementar el riesgo de “foreclosure” o ejecución hipotecaria. Una valuada muy bajo puede negarle al propietario el acceso a su capital y limitar las posibilidades de los vendedores. Además de perjudicar a los propietarios de vivienda, los prejuicios sistémicos en las tasaciones sean hacia arriba o hacia abajo, afectan a los vecindarios, distorsionan el mercado hipotecario, e impactan la base fiscal. Cuando se trata de vender una vivienda, todos necesitamos y merecemos recibir tasaciones justas y no discriminatorias.

De ser finalizada, la normativa propuesta crearía protecciones básicas para mitigar los riesgos asociados con los modelos automáticos de tasación. Las instituciones cubiertas por la normativa, que empleen estos modelos, tendrían que tomar acciones para aumentar la confiabilidad de los estimados tasados y protegerlos de la manipulación de datos. La normativa propuesta también les exigiría a las compañías establecer políticas y procesos para evitar conflictos de intereses, efectuar pruebas y revisiones de muestras aleatorias de datos, y a cumplir con las leyes antidiscriminatorias.

Esta propuesta viene a complementar nuestro trabajo recientemente hecho, para mantenernos delante de la proliferación del mercadeo de tecnologías que usan IA y que pueden arrojar resultados discriminatorios y amenazar la estabilidad financiera de las familias. Por ejemplo, hemos emitido directrices que clarifican que si un prestamista no entiende cómo su modelo de IA genera sus decisiones y, por ello, no puede cumplir con las leyes federales existentes que les exigen especificar las razones por las cuales algún solicitante recibió una decisión negativa, entonces no puede utilizar dicho modelo. De forma similar, a principios de año, nos hemos unido a otras agencias federales para clarificar que los sistemas automáticos y modelos IA deben ser desarrollados y usados de acuerdo con lo establecido en las leyes federales existentes, y para destacar los usos potencialmente dañinos de estos sistemas automáticos.

Las tecnologías mercadeadas como IA pueden impactar negativamente los derechos civiles, la competencia justa y la protección al consumidor. Dado que la tecnología tiene el poder para transformar nuestras vidas, debemos asegurarnos de que las tecnologías IA mercadeadas no se conviertan en excusas para evadir las leyes y perjudicar al consumidor. Es vital que estas tecnologías emergentes cumplan con la ley.

Continuaremos monitoreando el Desarrollo y uso de los sistemas automatizados y trabajaremos conjuntamente con las instituciones asociadas federales y estatales para hacer cumplir las leyes de protección financiera del consumidor. Esto incluye proteger los derechos de los propietarios, compradores y vendedores de viviendas del país, independientemente de si las violaciones a la ley fueron cometidas por una persona o por una máquina.

Lea la normativa propuesta; Estándares para el Control de Calidad de los Modelos Automáticos de Tasación (en inglés).

Los comentarios deben ser recibidos dentro de los primeros 60 días, a partir de la fecha de publicación de la normativa propuesta por el Registrador Federal.

Únase a la conversación. Síganos en X (anteriormente Twitter) y en Facebook .