Le Centre pour la sécurité de l’IA a publié une nouvelle déclaration sur les risques liés à l’IA, dans laquelle il discute des problèmes potentiels qui pourraient être causés par l’élargissement de nos recherches à la nouvelle technologie.
Des chercheurs, des décideurs, des journalistes et d’autres ont collaboré à cette déclaration, qui affirme que « l’atténuation du risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle sociétale tels que les pandémies et la guerre nucléaire ».
Bien que cela semble brosser un tableau assez sombre de notre avenir, certains pensent que la déclaration demande en fait aux gouvernements d’intervenir afin que les entreprises d’IA déjà établies puissent garder leur pied. Le développement non réglementé de l’IA pourrait conduire certains grands noms de la technologie à perdre leurs avances actuelles sur le marché, alors peut-être qu’il y a plus qu’un simple plaidoyer pour la sécurité de l’humanité dans cette déclaration.
Qu’en penses-tu? L’IA conduira-t-elle à notre extinction ?