L'ex-directeur, qui a dirigé Google de 2001 à 2015, a admis qu'il craignait que les algorithmes d'apprentissage automatique ne posent des risques extrêmes pour des personnes innocentes si des terroristes ou des "États voyous" choisissaient d'utiliser la technologie à des fins malveillantes.
Dans une interview accordée à BBC Radio 4, M. Schmidt a déclaré : "Pensez à la Corée du Nord, à l'Iran ou même à la Russie, qui ont des objectifs malveillants. Cette technologie est suffisamment rapide à adopter pour qu'ils puissent l'utiliser à mauvais escient et causer de réels dommages."
Le patron de l'industrie technologique a ajouté que les systèmes d'IA pourraient être utilisés pour créer "une mauvaise attaque biologique de la part d'une personne malveillante", comme le terroriste Oussama ben Laden, qui a organisé les attentats du 11 septembre 2001 contre le World Trade Center à New York, qui ont tué des milliers de citoyens américains.
Il a expliqué : "Je suis toujours préoccupé par le scénario "Oussama Ben Laden", dans lequel une personne vraiment maléfique s'empare d'un aspect de notre vie moderne et l'utilise pour nuire à des personnes innocentes."