Abstract image of artificial intelligence robot generated by code.

«  Il n’y a pas de poussée de ce génie dans la bouteille  »: les lecteurs croient qu’il est trop tard pour arrêter la progression de l’IA

Par Anissa Chauvin

L’humanité devrait-elle tirer les freins intelligence artificielle (AI) avant de mettre en danger notre survie même? Alors que la technologie continue de transformer les industries et la vie quotidienne, l’opinion publique est fortement divisée sur son avenir, en particulier comme la perspective de modèles d’IA qui peuvent correspondre à l’intelligence humaine devient plus faisable.

Mais que faisons-nous lorsque l’IA dépasse l’intelligence humaine? Les experts appellent ce moment le singularitéun événement futur hypothétique où la technologie transcende intelligence générale artificielle (AGI) pour devenir une entité superintelligente qui peut agiter récursivement et échapper au contrôle humain.

La plupart des lecteurs dans les commentaires pensent que nous sommes déjà allés trop loin pour réfléchir même à retarder la trajectoire vers une IA superintelligente. « Il est trop tard, Dieu merci, je suis vieux et je ne vivrai pas pour voir les résultats de cette catastrophe, » Kate Sarginson a écrit.

CECIPendant ce temps, a répondu: « (Je) pense que tout le monde sait qu’il n’y a pas de repousser ce génie dans la bouteille. »

D’autres pensaient que les craintes de l’IA étaient exagérées. Certains ont comparé les réserves sur l’IA aux craintes du public des changements technologiques passés. « Pour chaque technologie nouvelle et émergente, il y a les opposants, les critiques et souvent les craquelins. L’IA n’est pas différente, » Du pegg dit.

Ce point de vue a été partagé par certains adeptes de la science en direct Instagram. « Croiriez-vous que cette même question a été posée par beaucoup lorsque l’électricité a fait son apparition pour la première fois? Les gens étaient en grande crainte, et ont fait toutes sortes de prédictions désastreuses. Dont la plupart sont devenus réalité », a déclaré Alexmermaid Tales a écrit.

D’autres ont souligné la complexité du problème. « C’est une course aux armements internationaux et les connaissances se trouvent. 3jaredsjones3 a écrit.

« Les garanties sont nécessaires car des entreprises telles que NVIDIA cherchent à remplacer tous leurs effectifs par l’IA. Pourtant, les avantages pour la science, la santé, la production alimentaire, le changement climatique, la technologie, l’efficacité et d’autres objectifs clés provoqués par l’IA pourraient atténuer certains des problèmes », a poursuivi le commentaire.

Un commentaire a proposé des approches réglementaires plutôt que d’arrêter complètement l’IA. Isopropyle Suggéré: « Imposer une forte fiscalité sur les LLM de poids fermé (modèles de langage grand), à la fois la formation et l’inférence, et aucune réclamation de droits d’auteur sur les résultats. Imposer également une taxe progressive à une formation de modèles plus importante, une mise à l’échelle avec un déploiement facilité au matériel des consommateurs, pas un HPC (information haute performance). »

En revanche, ils ont suggéré que les LLM spécialisés plus petits peuvent être gérés par les consommateurs eux-mêmes, en dehors du contrôle des entreprises pour « aider (le) grand public à développer des relations plus saines avec l’IA ».

« Ce sont de bonnes idées. Passer des incitations de la poursuite de l’AGI à rendre ce que nous avons déjà plus utilisable serait génial, » 3jaredsjones3 a répondu.

Qu’en penses-tu? Le développement de l’IA devrait-il avancer? Partagez votre point de vue dans les commentaires ci-dessous.


Anissa Chauvin