Las historias de ciencia ficción sobre máquinas pensantes se yergue sobre la modernidad, de la mano de la Inteligencia artificial (IA). Sin embargo, aquello que el vulgo considera que puede hacer, no es en realidad lo que produce.

La IA intenta acompañar a la tecnología para que logre percibir el entorno y vincularse con él, a fin de resolver problemas de múltiples variables, donde el caudal de información más amplio permite obtener mejores soluciones.

Para que la IA pueda resolverlo, son las personas quienes nutren de información a los sistemas. Con errores, tendencias, imprecisiones o desconocimiento, la cadena puede distorsionarse y, como aprende a partir de lo que hace, esa brecha puede acrecentarse con el tiempo si no es percibida y rectificada.

“La industria de la inteligencia artificial (IA) debería crear unacomunidad global de piratas informáticos y modeladores de amenazas dedicadas a probar el potencial de daño de los nuevos productos de inteligencia artificial, para ganarse la confianza de los gobiernos y el público antesde que sea demasiado tarde”, afirma a Clarín @ShaharAvin, un especialista de la Universidad de Cambridge que dedica su investigación a analizar los sesgos de la IA, el modo en que se aprende a través de ella y en cómo solucionar esos descalces.

A él lo entrevisté para Clarín.