Dans une projection glaçante, des experts ont lancé un avertissement sévère : les avancées rapides de la technologie de l’IA pourraient augmenter considérablement la probabilité de pandémies causées par l’activité humaine. Selon une étude partagée exclusivement avec TIME, la probabilité de tels événements aurait été multipliée par cinq, une indication alarmante du pouvoir détenu par l’IA.

La percée de l’IA et ses conséquences

Auparavant, la création d’une arme biologique restait une tâche complexe, nécessitant expertise et ressources. Aujourd’hui, grâce aux chatbots d’IA, ce qui était autrefois l’apanage des scientifiques experts devient de plus en plus accessible. Des modèles comme ChatGPT et Claude sont considérés comme apportant une assistance cruciale de dépannage à des individus aux intentions malveillantes, créant un facteur de risque important souligné auparavant par des entreprises d’IA renommées.

Un appel à l’action de la communauté des prévisionnistes

L’Institut de recherche sur les prévisions, qui a mené des enquêtes auprès d’experts en biosécurité et de superprévisionnistes, tire la sonnette d’alarme. Ils ont estimé le risque actuel de pandémie induite par l’homme à 0,3 % par an. Cependant, si les outils d’IA atteignent une efficacité de niveau expert en manipulation de virus, ce chiffre pourrait atteindre 1,5 %, soulignant la gravité de ces développements.

L’IA dépasse les humains : une étape inquiétante

La recherche menée par Seth Donoughe a testé les capacités de l’IA par rapport à celles de virologistes expérimentés. Les résultats, qui ont choqué beaucoup de monde, ont révélé que les principaux systèmes d’IA surpassent actuellement les experts humains dans des scénarios de dépannage complexes. Cet accomplissement confirme les craintes des prévisionnistes, pointant vers un risque significativement accru de pandémies.

L’urgence de garde-fous robustes

Prendre des mesures préventives pour réduire ces risques semble essentiel. L’étude propose deux grandes stratégies de sauvegarde. Les sauvegardes au niveau du modèle visent à limiter la capacité des systèmes d’IA à aider dans des poursuites destructrices. Des entreprises comme OpenAI ont initié des mesures préventives pour empêcher leurs technologies de faciliter la construction d’armes biologiques. De plus, les réglementations empêchent les entreprises de synthèse génétique de contribuer involontairement à des fins néfastes, exhortant à la mise en œuvre de contrôles stricts de “connaître votre client”.

Une nouvelle frontière pour la sécurité mondiale

Avec l’IA potentiellement aidant à créer des menaces biologiques, se concentrer sur ce risque croissant est impératif, selon les experts. Bien que le risque soit devenu plus important avec les capacités de l’IA, des mesures politiques efficaces pourraient aider à le ramener à des niveaux plus gérables.

Les sources suggèrent que ces mesures proactives peuvent réduire la chance d’une pandémie assistée par l’IA à un cran au-dessus du minimum, un objectif optimiste au milieu de l’inquiétude croissante autour des conséquences imprévues de l’IA.

Alors que nous nous tenons au bord d’un précipice technologique, équilibrer des innovations phénoménales avec la sécurité mondiale n’a jamais été aussi crucial. Selon Time Magazine, il s’agit d’un appel à la vigilance et d’une réponse robuste pour protéger l’avenir de l’humanité.