Bitget App
Trade smarter
Acheter des cryptosMarchésTradingFuturesEarnWeb3CommunautéPlus
Trading
Spot
Achat et vente de cryptos
Marge
Amplifiez et maximisez l'efficacité de vos fonds
Onchain
Going Onchain, without going Onchain!
Convert
Aucun frais de transaction ni slippage
Explorer
Launchhub
Prenez l'avantage dès le début et commencez à gagner
Copy
Copiez des traders experts en un clic
Bots
Bots de trading IA simples, rapides et fiables
Trading
Futures USDT-M
Futures réglés en USDT
Futures USDC-M
Futures réglés en USDC
Futures Coin-M
Futures réglés en cryptomonnaies
Explorer
Guide des Futures
Le parcours de trading de Futures, du débutant à l'expert
Événements Futures
Profitez de généreuses récompenses
Bitget Earn
Une variété de produits pour faire fructifier vos actifs
Simple Earn
Déposez et retirez à tout moment, rendements flexibles sans risque
On-chain Earn
Réalisez des profits quotidiens sans risquer votre capital
Structured Earn
Une innovation financière solide pour gérer les fluctuations du marché
VIP et Gestion de patrimoine
Des services premium pour une gestion de patrimoine intelligente
Prêt Crypto
Emprunts flexibles avec un haut niveau de sécurité des fonds
Vitalik Buterin souligne les limites d'une autonomie excessive de l'IA et plaide pour une plus grande interaction humaine

Vitalik Buterin souligne les limites d'une autonomie excessive de l'IA et plaide pour une plus grande interaction humaine

MPOSTMPOST2025/08/11 15:30
Par:MPOST

En bref Le cofondateur d'Ethereum, Vitalik Buterin, a souligné que les systèmes d'IA devraient privilégier une interaction humaine accrue et des capacités d'édition adaptatives plutôt qu'une autonomie excessive pour améliorer l'efficacité et la sécurité.

Vitalik Buterin, cofondateur d'Ethereum, a récemment exprimé sa frustration sur le réseau social X face à l'approche adoptée par de nombreux développeurs d'IA pour maximiser la nature « agentique » des systèmes. Il a soutenu que se concentrer sur l'augmentation de l'autonomie de l'IA n'est pas aussi efficace que d'offrir davantage de possibilités d'intervention humaine, ce qui non seulement conduit à de meilleurs résultats à long terme, mais renforce également la sécurité.

« De nos jours, je suis beaucoup plus enthousiasmé par les modèles d’IA ouverts dotés de bonnes fonctionnalités d’édition que par ceux qui servent simplement à créer à partir de zéro », a-t-il déclaré dans une publication.

« À moyen terme, je veux un outil BCI sophistiqué qui me montre la chose au fur et à mesure qu'elle est générée et détecte en temps réel ce que je ressens à propos de chaque partie et s'ajuste en conséquence », a-t-il ajouté.

Faire écho à quelque chose @karpathy j'ai récemment dit que cela me frustre de voir qu'une grande partie du développement de l'IA essaie d'être aussi « agentique » que possible, alors qu'en réalité, la création de *plus* de chemins pour l'intervention humaine crée à la fois un meilleur résultat (maintenant pour un bon bout de temps à venir) et est meilleure pour la sécurité.

- vitalik.eth (@VitalikButerin) August 11, 2025

Les défis de l'autonomie excessive en IA et la promesse de modèles interactifs et adaptatifs à l'utilisateur

Vitalik Buterin a réagi à une publication de l'ancien directeur de Tesla AI, Andrej Karpathy, qui a souligné que les grands modèles de langage (LLM) deviennent trop autonomes car ils sont optimisés pour des tâches à long terme. 

Andrej Karpathy a expliqué que, par exemple, dans le codage, ces modèles ont désormais tendance à raisonner sur des périodes prolongées, montrant une tendance à rechercher dans des référentiels entiers, à effectuer des recherches répétées sur le Web, à suranalyser des cas limites rares, même dans du code connu pour être incomplet ou en cours de développement, et à revenir souvent quelques minutes plus tard pour répondre même à des requêtes simples.

« Cela peut être judicieux pour les tâches de longue durée, mais c'est moins adapté au développement itératif plus « en boucle » que je pratique encore fréquemment, ou lorsque je cherche simplement à effectuer une vérification rapide avant d'exécuter un script, au cas où j'aurais commis une erreur d'indexation ou autre erreur simple. Je me surprends souvent à interrompre les LLM avec des variantes du genre : « Arrêtez, vous réfléchissez trop. Concentrez-vous uniquement sur ce fichier. N'utilisez aucun outil. Ne faites pas trop de développement », a déclaré Andrej Karpathy dans une publication.

Je remarque qu'en raison (je pense ?) de nombreux benchmarkmaxxing sur des tâches à long terme, les LLM deviennent un peu trop agents par défaut, un peu au-delà de mon cas d'utilisation moyen.

Par exemple, dans le codage, les modèles ont désormais tendance à raisonner pendant un temps assez long, ils ont tendance à…

- Andrej Karpathy (@karpathy) August 9, 2025

Vitalik Buterin a exprimé son accord avec l'idée selon laquelle une autonomie excessive en intelligence artificielle peut entraîner une baisse d'efficacité. Il a soutenu que les modèles open source dotés de fonctionnalités d'édition sont nettement plus efficaces que ceux conçus uniquement pour créer du contenu de A à Z. 

Le cofondateur d'Ethereum a également souligné le potentiel des interfaces cerveau-ordinateur qui surveillent en temps réel les réactions des utilisateurs aux contenus générés et s'adaptent en conséquence. Une telle technologie permettrait aux systèmes d'IA de mieux comprendre et répondre aux intentions et aux attentes des utilisateurs. Il a noté que de nombreux modèles d'IA actuels ne tiennent souvent pas compte de ces subtilités, ce qui limite leur utilité globale.

0

Avertissement : le contenu de cet article reflète uniquement le point de vue de l'auteur et ne représente en aucun cas la plateforme. Cet article n'est pas destiné à servir de référence pour prendre des décisions d'investissement.

PoolX : Bloquez vos actifs pour gagner de nouveaux tokens
Jusqu'à 12% d'APR. Gagnez plus d'airdrops en bloquant davantage.
Bloquez maintenant !