Jin10 données 14 mai, l'institut de recherche AI à but non lucratif Epoch AI a publié un rapport, soulignant que les entreprises d'IA ont du mal à tirer continuellement d'énormes gains de performance des modèles d'inférence, et que l'amélioration des modèles d'inférence ralentira au plus tôt dans un an. Le rapport, basé sur des données publiques et des hypothèses, met en évidence les limitations des ressources de calcul et l'augmentation des coûts de recherche. L'industrie de l'IA a longtemps compté sur ces modèles pour améliorer les performances de référence, mais cette dépendance est désormais remise en question. L'analyste de l'institut Josh You a souligné que l'essor des modèles d'inférence est dû à leur excellente performance dans des tâches spécifiques. Par exemple, le modèle o3 d'OpenAI a principalement amélioré les compétences en mathématiques et en programmation ces derniers mois. Ces modèles d'inférence résolvent des problèmes en augmentant les ressources de calcul, améliorant ainsi les performances. Cependant, en contrepartie, ces modèles d'inférence nécessitent plus de calcul pour traiter des tâches complexes, prenant donc plus de temps que les modèles traditionnels.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Prévision d'Epoch AI : dans un an au plus tôt, le rythme des modèles de raisonnement va ralentir.
Jin10 données 14 mai, l'institut de recherche AI à but non lucratif Epoch AI a publié un rapport, soulignant que les entreprises d'IA ont du mal à tirer continuellement d'énormes gains de performance des modèles d'inférence, et que l'amélioration des modèles d'inférence ralentira au plus tôt dans un an. Le rapport, basé sur des données publiques et des hypothèses, met en évidence les limitations des ressources de calcul et l'augmentation des coûts de recherche. L'industrie de l'IA a longtemps compté sur ces modèles pour améliorer les performances de référence, mais cette dépendance est désormais remise en question. L'analyste de l'institut Josh You a souligné que l'essor des modèles d'inférence est dû à leur excellente performance dans des tâches spécifiques. Par exemple, le modèle o3 d'OpenAI a principalement amélioré les compétences en mathématiques et en programmation ces derniers mois. Ces modèles d'inférence résolvent des problèmes en augmentant les ressources de calcul, améliorant ainsi les performances. Cependant, en contrepartie, ces modèles d'inférence nécessitent plus de calcul pour traiter des tâches complexes, prenant donc plus de temps que les modèles traditionnels.