¿Deberíamos protegernos de los algoritmos?

¿Deberíamos protegernos de los algoritmos?

Con la expansión de la analítica avanzada en cada vez más ámbitos de nuestras vidas, la discusión respecto a la regulación de estos está tomando cada vez más fuerza.

 
En el ámbito político, el año 2016 fue un año dominado por la incertidumbre. La victoria de Trump, el Brexit y el referéndum en Colombia son ejemplos de cómo muchas veces la intuición y la opinión de los expertos en distintas materias se equivocan. Y por la misma razón, este es otro año donde el interés por los modelos de aprendizaje de máquina sigue aumentando. Pues este tipo de técnicas han demostrado ser efectivas para apoyar, o incluso reemplazar, a los humanos al momento de hacer predicciones.

El aprendizaje de máquina es un área de la computación que agrupa todos los algoritmos y modelos matemáticos que se construyen a sí mismos a partir de los datos. Por lo mismo todos parten de un supuesto fundamental: que el pasado (almacenado en los datos) de alguna forma refleja el futuro. Y dado que aprenden automáticamente, sin la influencia de personas, son inherentemente imparciales. Además, ya que son programas computacionales, permiten automatizar la toma de decisiones, respondiendo a volúmenes inalcanzables para seres humanos y asegurar la objetividad y consistencia de estas decisiones.

Por estas razones, los modelos de analítica avanzada permiten resolver problemas diversos como la toma de decisiones de grandes empresas, hasta la manera en que los gobiernos distribuyen sus servicios y hasta la justicia.

La preocupación de que estos algoritmos puedan ser ocupados injusta o incluso ilegalmente ha llevado al partido laborista del Reino Unido a presionar por mayores regulaciones a este tipo de técnicas. ¿Pero qué cosas deberían cubrir este tipo de nuevas regulaciones? ¿Es incluso posible regular un área tan complejo de la tecnología?

Los algoritmos son usados para resolver problemas de diversa índole. Por ejemplo, Google utiliza modelos especiales para autocompletar la barra de búsqueda a medida que el usuario teclea y para rankear los sitios que retorna como resultado. En su proyecto de autos carentes de piloto, son algoritmos los que deciden la velocidad, cuando frenar, doblar o incluso a quien colisionar en caso de una emergencia.

Instituciones financieras usan algoritmos para determinar el perfil de riesgo de sus clientes o hasta si deberían conceder un préstamo, seguro o tarjeta de crédito. Por otro lado, empleadores hacen lo mismo para seleccionar los mejores candidatos a sus puestos.

Incluso los gobiernos alrededor del mundo están adoptando este tipo de técnicas. Algoritmos predictores de crímenes permiten a la policía asignar mejor sus recursos limitados en sectores específicos. Los agentes aduaneros utilizan algoritmos para determinar quién es o no apto para viajar en vuelos comerciales. Incluso los jueces, podrían pronto apoyarse en algoritmos para determinar el riesgo de reincidencia de un delincuente y así elegir la sentencia más adecuada.

Dada la extensa influencia que hoy tienen los algoritmos en la vida de las personas, no es sorprendente que movimientos políticos deseen ejercer mayor control sobre ellos. Pero dado que estos modelos son por lo general altamente lucrativos y manejan información sensible. Las organizaciones querrán mantener la mayor confidencialidad sobre los detalles de su funcionamiento. Incluso puede que muchos de estos modelos estén protegidos por patentes o acuerdos de confidencialidad. Por lo que la habilidad para regular estos algoritmos será difícil de conseguir.

La naturaleza oculta de los algoritmos puede ser en sí misma una fuente de regulación. La ley podría cambiarse para forzar a las instituciones a comunicar el hecho de que muchas de sus decisiones están siendo tomadas o apoyadas por algoritmos. Pero este enfoque solo aumentaría la transparencia, sin afectar el proceso de los algoritmos en sí. Por lo tanto el enfoque debería recaer en el input y output que entregan los algoritmos.

En el Reino Unido la ley de revisión judicial permite revisar los datos que utilizan los algoritmos de instituciones gubernamentales. Esta ley permite a los jueces determinar la legalidad de las decisiones tomadas por estos organismos. Luego los jueces podrían determinar la relevancia y pertinencia de los datos entregados a los algoritmos. La recomendación final del algoritmo igualmente podría ser evaluada respecto a sus condiciones legales.

El caso de las empresas privadas es más diverso. La necesidad de regulación varía según el nivel de impacto “potencial” que exista sobre los individuos. Sistemas que recomiendan música, videos o productos que podrían agradar a las personas necesitan poca o nula regulación. Pero si las compañías cambian precios o condiciones basadas en características sociales de las personas la presión por regular aumenta.

Como empresa creemos que es evidente la imposibilidad de los reguladores para supervisar cada algoritmo y las decisiones que toman en tiempo real. En cambio, las instituciones deben tener libertad de acción para ocupar sus modelos, haciéndose responsables posteriormente de las consecuencias que estos puedan acarrear.

En un mundo donde la influencia de los computadores en la vida de las personas es cada vez mayor, la transparencia sobre su alcance es fundamental. Evidentemente, la forma de regular estas tecnologías, que además siguen en constante cambio, no es trivial. Pero al menos podemos comenzar por discutirlo y generar consciencia del tema.

Artículo escrito por Alan Reid · https://www.weforum.org/
Traducido y adaptado por Nicolás Castro · http://www.analytics10.com/