The pessimism of researchers in IA

This answer comes from a survey conducted in May and June of this year among 327 researchers, chosen among those who have co-signed these last years une ou des researches sur le treatment automatique du langage (natural language processing:), un domaine qui a été le théâtre d’avancées notables.

The expression “de même ampleur qu’une guerre nucleare” peut être vue comme une metaphore, mais peut aussi être prise au premier degré. ces chercheurs entrevoient des applications militaires à l’IA, et du coup, la possibilité qu’avec ces récentes avancecies, l’IA jue un rôle more important dans la prise de décision. “Il existe des scénarios plausibles qui potrouint nous conduire jusque-là”, commente dans le New Scientist le chercheur en sécurité Paul Scharre. “Mais ça necessaireit que des gens fassent des choses vraiment dangereuses avec les usages militaires de l’IA. »

In the survey, carried out by a team from the New York University Center for Scientific Data, and the results of which were pre-published on August 26, the number of anxious researchers was even higher among women (46 %) and members of visible minorities (53%).

Sans aller jusqu’à une guerre nucléaire, some of the respondents said that they would have agreed with the premise according to which the IA posed serious risks, if the scenario evoked had been more extreme. It is mentioned for example in the survey the risks posed by weapons guided by artificial intelligence or those posed by mass surveillance.

Ces chercheurs n’ont evidently pas sorti ces inquietudes de leurs seules recherches. Les risques de dérives de l’IA sont évoqués depuis plusieurs années, par exemple in matière de discrimination. But the risks that put the very future of humanity at stake have been the object of further reflection, for example in the 2018 report of a group of thinkers in the United States, or in the book of a researcher from the University of Oxford in 2014. Des thousands of people signed an open letter from the British computer scientist Stuart Russell in 2015, who called for “expanded research aimed at ensuring that the systems of more and more” avance d’IA soient robustes et beneficials.

Conversely, those who do not give in to pessimism evoke the example of the autonomous car, which is still far from being able to make informed decisions in all circumstances, despite the huge sums invested in it.

Si, dans les années 2000 et 2010, ces réflexions portaient sur les capacités theoriques d’une “super-intelligence”, elles sont devenues more ancrées dans le réel avec les récentes d’apprentissage automatique (machine learning) et de treatment automatique du langage, qui ont ouvert de nouvelles perspectives sur ce que nous pouvons faire avec l’AI et ce que nous ignorons encore de son potential. Des juristes s’interrogent aussi. the committee on artificial intelligence of the Council of Europe has notably ruled on the importance of a regulation that leaves the decision-making to humans “and not to mathematical models”. But it remains to write such laws…

Back to top button