¿Por Qué La Inteligencia Artificial Es Peligrosa Para Juzgar A Los Criminales? - Vista Alternativa

Tabla de contenido:

¿Por Qué La Inteligencia Artificial Es Peligrosa Para Juzgar A Los Criminales? - Vista Alternativa
¿Por Qué La Inteligencia Artificial Es Peligrosa Para Juzgar A Los Criminales? - Vista Alternativa

Vídeo: ¿Por Qué La Inteligencia Artificial Es Peligrosa Para Juzgar A Los Criminales? - Vista Alternativa

Vídeo: ¿Por Qué La Inteligencia Artificial Es Peligrosa Para Juzgar A Los Criminales? - Vista Alternativa
Vídeo: Peligros de la Inteligencia Artificial 2024, Mayo
Anonim

La inteligencia artificial ya está ayudando a determinar su futuro de alguna manera. Cuando busque algo en un motor de búsqueda, utilice un servicio como Netflix o un banco evalúe su idoneidad para una hipoteca. Pero, ¿qué pasa si la inteligencia artificial tiene que determinar si eres culpable o no, en un tribunal? Curiosamente, en algunos países esto puede estar sucediendo ya. Recientemente, se le preguntó al Alto Juez estadounidense John Roberts si podía imaginar un día en el que "las máquinas inteligentes, controladas por inteligencia artificial, ayudarían a encontrar pruebas o incluso a tomar decisiones judiciales". Él respondió: "Este día ya ha llegado y está ayudando significativamente a las autoridades judiciales en el proceso".

Quizás Roberts se refería al caso reciente de Eric Loomis, quien fue sentenciado a seis años de prisión por recomendación de software propietario secreto de una empresa privada. Loomis, quien ya tenía antecedentes penales y fue sentenciado por escapar de la policía en un auto robado, ahora afirma que se violó su derecho a procedimiento ya que ni él ni sus representantes pudieron revisar o impugnar el algoritmo de recomendación.

El informe fue preparado por el software Compas, que Notrpointe vende a los barcos. El programa incorpora una nueva tendencia en la investigación de la IA: ayudar a los jueces a tomar decisiones "mejores" (o al menos más basadas en datos) en los tribunales.

Si bien los detalles específicos del caso Loomis permanecen cerrados, ciertamente contiene tablas y números que definen la vida, el comportamiento y la probabilidad de una recaída de Loomis. Estos incluyen edad, raza, identidad de género, hábitos, historial del navegador y algunas medidas del cráneo. Nadie lo sabe con mayor precisión.

norte

Se sabe que el fiscal del caso le dijo al juez que Loomis demostró "un alto riesgo de reincidencia, violencia, diligencias previas al juicio". Esto es estándar cuando se trata de sentencias. El juez estuvo de acuerdo y dijo a Loomis que "Compas lo identificó como una persona de alto riesgo para la sociedad".

La Corte Suprema de Wisconsin condenó a Loomis y agregó que el informe de Compas agregó información valiosa a su decisión, pero señaló que sin él, dictó la misma sentencia. Por supuesto, no podrá verificar esto con seguridad. ¿Qué tipo de sesgos cognitivos puede haber cuando un sistema "inteligente" omnipotente como Compas está involucrado en asesorar a los jueces sobre qué hacer?

Uso desconocido

Video promocional:

Seamos honestos, no hay nada de "ilegal" en lo que hizo la corte de Wisconsin; esto es solo un ejemplo. Otros tribunales pueden hacer lo mismo y lo harán.

Desafortunadamente, no sabemos en qué medida se utilizan la inteligencia artificial y otros algoritmos en la sentencia. Se cree que algunos tribunales están "probando" sistemas como Compas en juicios cerrados, pero no pueden reclamar una asociación. También existe la percepción de que varias nuevas empresas de inteligencia artificial están desarrollando sistemas tan inteligentes.

norte

Image
Image

Sin embargo, el uso de IA en la legislación no comienza ni termina con una sentencia, comienza con una investigación. El Reino Unido ya ha desarrollado el sistema VALCRI, que realiza un trabajo analítico que requiere mucho tiempo en segundos, escabulléndose a través de toneladas de datos como textos, informes de laboratorio y documentos policiales para resaltar cosas que pueden requerir una mayor investigación.

La policía de West Midlands del Reino Unido probará VALCRI durante los próximos tres años utilizando datos anónimos que contienen más de 6,5 millones de registros. La policía de Amberes en Bélgica está llevando a cabo una prueba similar. Sin embargo, en el pasado, los proyectos de inteligencia artificial y aprendizaje profundo que involucraban conjuntos de datos masivos han sido problemáticos.

Beneficios para unos pocos

La tecnología ha proporcionado muchas ayudas útiles a las salas de audiencias, desde fotocopiadoras hasta extracción de ADN de huellas dactilares y sofisticadas técnicas de vigilancia. Pero esto no significa que cualquier tecnología sea una mejora.

Si bien el uso de inteligencia artificial en investigaciones y condenas puede ahorrar tiempo y dinero, plantea graves problemas. Un informe de Compas de ProPublica dejó en claro que el programa consideraba erróneamente que los negros eran más reincidentes que los blancos. Incluso los sistemas de inteligencia artificial más sofisticados pueden heredar los prejuicios raciales y de género de quienes los crean.

Además, ¿cuál es el punto de cambiar la toma de decisiones (al menos parcialmente) sobre cuestiones que son exclusivas de los humanos en un algoritmo? Existe una cierta dificultad en los Estados Unidos cuando los jurados juzgan a sus pares. Los estándares legales nunca han sido el punto de referencia, por lo que estos juicios con jurado se consideran los sistemas de condena más democráticos y efectivos. Cometemos errores, pero con el tiempo acumulamos conocimiento sobre cómo no cometerlos, refinando el sistema.

Compas y sistemas similares representan una caja negra en el sistema legal. No debería haber tal. Los sistemas legales dependen de la continuidad, la transparencia de la información y la capacidad de revisión. La sociedad no quiere un sistema que fomente la carrera para construir nuevas empresas de IA que produzcan soluciones rápidas, baratas y exclusivas. Una IA hecha a toda prisa será terrible.

Una versión actualizada de código abierto de Compas sería una mejora. Pero primero, los estándares del sistema judicial deberán elevarse antes de que comencemos a cambiar la responsabilidad a favor de los algoritmos.

ILYA KHEL

Recomendado: