Predictim asegura que sus servicios buscan garantizar la "paz mental" de los padres que dejan a sus hijos al cuidado de otras personas.
Pero Facebook y Twitter no ven esta aplicación con tan buenos ojos.
PUBLICIDAD
La app ofrece analizar la actividad en redes sociales de un posible niñero o niñera y lo puntúa del 1 al 5 (de menor a mayor riesgo) para sugerir qué tan seguro sería contratar a esa persona.
La aplicación, cuya empresa tiene sede en California, Estados Unidos, busca publicaciones sobre drogas, violencia y otros contenidos desagradables.
Pero ¿qué tan acertados pueden ser sus diagnósticos?
Bloqueo
Sal Parsa, director ejecutivo y cofundador de Predictim, dijo que "todo el mundo busca información sobre personas en las redes sociales, en Google".
"Solo estamos automatizando este proceso", agregó.
PUBLICIDAD
Predictim necesita que los candidatos acepten su solicitud de revisar sus perfiles en redes sociales, de acuerdo a un reciente artículo de The Washington Post que puso el foco sobre este servicio.
Una vez que elabora un informe, la app envía los resultados solo a los padres, según informa este medio.
Pero a inicios de noviembre, Facebook revocó la mayor parte del acceso de Predictim a los datos de los usuarios de la red social por considerar que el servicio viola sus políticas sobre el uso de datos personales.
"Rebuscar información de las personas en Facebook va en contra de nuestros términos de servicio", declaró una portavoz.
"Investigaremos a Predictim por violaciones de nuestros términos", añadió.
Predictim respondió que aún rebusca en los datos públicos de Facebook para potenciar sus algoritmos, por lo que la compañía de Mark Zuckerberg está evaluando si bloquearla por completo.
Twitter le dijo a la BBC que "recientemente" decidió bloquear el acceso de Predictim a sus usuarios.
"Prohibimos estrictamente el uso de los datos de Twitter y de las interfaces de programación de aplicaciones para fines de vigilancia, incluida la verificación de antecedentes", señaló una portavoz por correo electrónico.
"Cuando nos enteramos de los servicios de Predictim, investigamos y revocamos su acceso a las interfaces de programación públicas de Twitter", añadió.
Falibilidad
Los críticos dicen que no se debe confiar en los algoritmos para dar consejos sobre si alguien es idóneo o no para un trabajo.
En el artículo de The Washington Post, expertos advierten de la falibilidad de los algoritmos, que podrían malinterpretar la intención detrás de los mensajes.
"Los jóvenes tienen bromas. Son notoriamente sarcásticos. Algo que puede ser una declaración política o una crítica válida, puede sonar como una ’mala actitud’ para el algoritmo", le dijo a The Washington Post Jamie Williams, de Electronic Frontier Foundation, una organización de defensa de derechos en el mundo digital.
Predictim, financiada por un programa de la Universidad de California en Berkeley, dijo que tiene un filtro humano en su sistema para revisar manualmente las publicaciones marcadas como problemáticas y así evitar falsos negativos.
Además de las referencias a la conducta delictiva, Predictim afirma poder detectar casos "en los que una persona demuestra falta de respeto, de estima o de un comportamiento cortés".
Sin garantías
La compañía le mostró a la BBC un panel de demostración para explicar cómo los usuarios pueden ver publicaciones específicas de redes sociales marcadas como inapropiadas, para emitir sus propios juicios.
"No es magia negra", dijo Parsa. "Si la inteligencia artificial señala a un individuo como abusivo, hay pruebas de por qué a esa persona se la considera abusiva".
El servicio cobra US$25 por revisar los perfiles de redes sociales de un candidato, con descuentos para búsquedas múltiples.
La empresa dijo que está en conversaciones con las principales compañías de "economía compartida" para verificar los datos de los conductores de viajes compartidos o anfitriones de servicios de alojamiento.
La empresa insiste en que no es una herramienta para tomar decisiones de contratación, sino que el puntaje es solo una guía.
Sin embargo, en la página del sitio, la compañía utiliza frases como "es muy probable que esta persona muestre un comportamiento no deseado (alta probabilidad de ser una mala contratación)".
Parsa señaló un descargo de responsabilidad en la parte inferior de la página que dice: "No podemos ofrecer ninguna garantía en cuanto a la precisión del análisis en el informe o si este es adecuado para sus necesidades".
Ahora puedes recibir notificaciones de BBC News Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.
https://www.youtube.com/watch?v=OPBtbIkRIUc&t=156