Le champignon que l’IA pense que c’est une bretzel

Squirrel and dragonfly Image droit d’auteur ImageNet Un
L’Image de la légende d’Un écureuil a été identifié comme un lion de mer, et une libellule comme une plaque d’égout

Les papillons étiquetés comme les machines à laver, les alligators comme les colibris et les libellules qui deviennent des bananes.


Ce sont juste quelques exemples de balises système d’intelligence artificielle ont donné des images.


Maintenant, les chercheurs ont publié une base de données de 7500 images que l’IA des systèmes peinent à identifier correctement.


Un expert a dit qu’il était crucial de résoudre le problème si ces systèmes ont été utilisés dans le monde réel.


“Nul ne sait pourquoi ils ne parviennent pas à reconnaître ces images qui n’ont pas l’air dur,” dit Calum Chace, un expert dans le domaine.


“Et alors que personne ne sait quelle est la solution, mon intuition est qu’il ne tient pas la recherche en IA pour longtemps, car il y a une énorme quantité d’argent et de talents qui peuvent être lancés sur le problème à résoudre.”


Les chercheurs de l’université de Berkeley, et les Universités de Washington et Chicago, a déclaré que les images qu’ils ont compilés dans un ensemble de données appelé ImageNet-Un – ont le potentiel d’affecter gravement la performance globale de l’image classificateurs, ce qui pourrait avoir des répercussions sur la façon dont de tels systèmes fonctionnent dans des applications telles que la reconnaissance faciale ou auto-conduite des voitures.


“Le problème doit être résolu avant que les systèmes comme l’auto-conduite de voitures de devenir la norme”, a déclaré M. Chace.


Les images ont tous été recueillies en ligne et aucun n’avait été modifiée numériquement.


Les chercheurs espèrent que la base de données aidera les experts d’améliorer la précision de la façon dont IA systèmes de classer les images.


Image droit d’auteur ImageNet Un
L’Image de la légende d’Un champignon est devenu un bretzel et un bullfrog, un écureuil

Les images précédentes testé sur AI peut-être été trop simple et ne pas représenter exactement celles que les systèmes de la rencontre “dans la vraie parole”, les chercheurs ont dit.


AI souvent interprète mal les objets car il est la sur-généralisation, par exemple, une ombre dans l’image d’un cadran solaire conduira à des algorithmes de label ombres des cadrans solaires. Ou il peut penser que toutes les voitures sont des limousines.


L’original ImageNet a été utilisé pour former des réseaux de neurones – systèmes qui pourraient enseigner eux-mêmes – et faisait partie d’une renaissance de l’IA, comme la puissance de l’ordinateur et d’énormes bases de données combinées pour rendre beaucoup plus performant des systèmes.