Microsoft restringe el acceso a su herramienta para detectar emociones

El sistema de detección de emociones de Microsoft no cumple con los estándares éticos con los que debe operar una Inteligencia Artificial.

Microsoft se encuentra retirando el acceso público a sus herramientas de inteligencia artificial que pueden hacer un análisis facial y detectar tus emociones, pues podría utilizarse con fines maliciosos, además porque no se puede realizar una base de datos certera, pues las expresiones y su interpretación son subjetivas y cambian dependiendo de la cultura o la región en la que te encuentres.

Sin embargo, Microsoft no eliminará la herramienta y los usuarios pueden solicitar la activación de Azure Face, un servicio de reconocimiento facial que se puede utilizar para otros fines como para Seeing AI, una app que ayuda a describir el entorno a personas con discapacidad visual.

Microsoft restringe el acceso a su herramienta de IA que detecta emociones

 

Microsoft decidió restringir el acceso a su detector de emociones a través de reconocimiento facial porque se compromete con las políticas de ética  de  "Responsible AI Standards"  que se redactaron en 2019 después de que se considerara que la Inteligencia Artificial necesita supervisarse para que no vulnere la privacidad e integridad de las personas y puedan utilizarse con fines maliciosos. La empresa ya se comprometió a no vender sus sistemas a departamentos de policía.

Un aspecto muy importante que se consideró para tomar la desición de cerrar esta herramienta es que Natasha Crampton, direcotra responsable de IA en Microsoft, mencionó que los científicos no cuentan con un consenso de la definición de "emociones", además, no se pueden crear interpretaciones generalizadas ya que para identificarlas es necesario considerar datos demográficos y culturales.

La Inteligencia Artificial de Microsoft capaz de identificar emociones involucra un aspecto muy subjetivo y rompe las normas éticas con las que debe funcionar una IA. | Unsplash

Sarah Bird, directora y gerente de producto en la unidad Azure de Microsoft,  expresó que la empresa ha tenido problemas para desarrollar una IA confiable que pueda analizar datos tan subjetivos como las emociones.

Estos esfuerzos plantearon preguntas importantes sobre la privacidad, la falta de consenso sobre una definición de emociones y la incapacidad de generar el vínculo entre la expresión facial y el estado emocional en casos de uso, regiones y datos demográficos", comentó Bird.

Te puede interesar: Amazon permitirá usar la voz de amigos y familiares fallecidos en Alexa

Noticias Relacionadas

TE PUEDE INTERESAR

MÁS NOTICIAS

MÁS NOTICIAS