Hiya, les amis, le weelcoma à la newsletter régulière de l’IA de TechCrunch. Si vous voulez cela dans votre boîte de réception tous les mercredis, inscrivez-vous ici.
Vous avez peut-être remarqué que nous avons sauté la newsletter la semaine dernière. La raison? Un cycle de nouvelles chaotiques de l’IA a rendu encore plus pandémonié par la société chinoise de l’IA, Deepseek, la montée en importance de Deepseek, et la réponse de pratiquement tous les coins de l’industrie et du gouvernement.
Heureusement, nous sommes de retour sur la bonne voie – et pas parfois aussi, considérons les développements Newsy du week-end dernier d’Openai.
Le PDG d’Openai, Sam Altman, s’est arrêté à Tokyo pour avoir une conversation sur scène avec Masayoshi Son, le PDG du conglomérat japonais Softbank. SoftBank est un important investisseur et partenaire OpenAI, s’étant engagés à financer le projet d’infrastructure de centre de données d’Openai aux États-Unis
Alors Altman s’envolera probablement, il devait ses quelques heures de son temps.
De quoi les deux milliardaires ont-ils parlé? Beaucoup de résumés travaillent via des «agents» d’IA, par rapport d’occasion. Il a dit que son entreprise dépenserait 3 milliards de dollars par an sur les produits OpenAI et ferait équipe avec Openai à DevelopFum, «Cristal (SIC) Intelligence», dans le but d’automatisation des millions de flux de travail traditionnellement blancs.
« En automatisant et en autonomisant toutes ses tâches et flux de travail, SoftBank Corp. transformera ses activités et ses services et créera une nouvelle valeur », a déclaré Softbank dans un communiqué de presse lundi.
Je demande, cependant, ce que l’humble travailleur doit penser de toute cette automatisation et de cette autonome?
Comme Sebastian Siemiatkowski, le PDG de FinTech Klarna, qui se vante souvent de l’IA en remplacement des humains, son fils semble être d’avis que les stands agentiques pour les travailleurs ne peuvent que précipiter une richesse fabuleuse. Gosé est le coût de l’abondance. Si l’automatisation généralisée des emplois se répercute, le non-emploi à une échelle énorme semble le plus probable un résultat.
Il est décourageant que ceux à l’avant-garde de la race de l’IA – des entreprises comme Openai et des investisseurs comme SoftBank – choisissent de dépenser des conférences de presse à peindre une image de sociétés automatisées avec moins de travailleurs sur la masse salariale. Ce sont des affaires, de race – pas des organismes de bienfaisance. Et le développement de l’IA n’est pas bon marché. Mais peut-être que les gens feraient confiance à l’IA si ceux qui guident son déploiement montraient un peu plus d’affaires pour leur bien-être.
Nourriture pour travers.
Nouvelles
Recherche profonde: OpenAI a lancé un nouvel «agent» d’IA conçu pour aider les gens à mener des recherches complexes approfondies à l’aide de Chatgpt, la plate-forme de chatbot AI-Power de la société.
O3-Minini: Dans d’autres nouvelles d’Openai, la société a lancé un nouveau modèle de «raisonnement» d’IA, O3-Mini, après un aperçu en décembre dernier. Ce n’est pas le modèle le plus puissant d’Openai, mais O3-Mini possède une amélioration de l’efficacité et de la vitesse de réponse.
L’UE interdit l’IA risquée: dimanche dans l’Union européenne, les régulateurs du bloc peuvent interdire l’utilisation de systèmes d’IA qu’ils considèrent comme «un risque inacceptable» ou un préjudice. Cela comprenait l’IA utilisé pour la notation sociale et la publicité subliminale.
Une pièce de théâtre sur les «Doomers» de l’IA: il y a une nouvelle pièce sur la culture de l’IA «Doomer», librement basée sur l’ossing de Sam Altman en tant que PDG d’Openai en novembre 2023. Mes collègues Dominic et Rebecca partagent leurs pensées après avoir regardé la première.
Tech to Boost Crop Yeds: «Moshot Factory» de Google, ce qui a bordé son dernier diplômé. L’agriculture héréditaire est la startup du conducteur d’apprentissage des données et des machines Love Amour pour améliorer la façon dont les cultures sont cultivées.
Document de recherche de la semaine
Les modèles de raisonnement sont meilleurs que votre IA moyenne à résoudre les problèmes, en particulier les requêtes liées à la science et aux mathématiques. Mais ce ne sont pas une solution miracle.
Une nouvelle étude de chercheurs de la société chinoise Tencent étudie la question de la «sous-estimation» dans les modèles de raisonnement, où les modèles prématurément, abandonnant de manière préalable des chaînes de pensée prometteuses potentiels. Selon les résultats de l’étude, les modèles «Undethinking» ont tendance à se produire plus fréquemment avec des problèmes difficiles, conduisant les modèles à basculer entre les chaînes de raisonnement sans arriver chez Amers.
L’équipe propose un correctif qui utilise une «pénalité de changement de réflexion» pour encourager les modèles à développer «à fond» chaque ligne de raisonnement avant de considérer les alternatives, ce qui augmente la précision des modèles.
Modèle de la semaine

Une équipe de chercheurs soutenue par le propriétaire de Tiktok ByTedance, la société de l’IA chinoise Monshot, et d’autres ont publié un nouveau modèle ouvert capable de générer de la musique relativement de haute qualité.
Le modèle, appelé Yue, peut sortir une chanson jusqu’à une longueur de minutes avec des voix et des pistes de support. Il est sous une licence Apache 2.0, ce qui signifie que le modèle peut être commercialement sans restrictions.
Il y a cependant des inconvénients. Running Yue nécessite un GPU costaud; La génération d’une chanson de 30 secondes prend six minutes avec un NVIDIA RTX 4090. De plus, il n’est pas clair si le modèle a été formé des données protégées par le droit d’auteur; Ses créateurs n’ont pas dit. S’il s’avère que les chansons protégées par le droit d’auteur étaient en effet dans l’ensemble de formation du modèle, les utilisateurs pourraient faire face à de futurs défis IP.
Sac à main

AI Lab Anthropic affirme qu’il a développé une technique à Defnd plus connecté contre les «jailbreaks» de l’IA, la méthode qui peut être utilisée pour contourner les mesures de sécurité d’un système d’IA.
La technique, les classificateurs constitutionnels, liés à deux ensembles de modèles d’IA «classifier»: une classification «entrée» et une «sortie» classer. L’entrée classe une annexe rapide à un modèle de sauvegarde avec des modèles décrivant le jailbreaks et autres contenus refusés, tandis que la sortie classe calcule la probabilité qu’une responsabilité d’un modèle d’informations nuisibles.
Anthropic dit que les classificateurs constitutionnels peuvent filtrer la «majorité écrasante» du jailbreaks. Cependant, cela a un coût. Chaque requête est 25% en plus de demande de calcul, et le modèle de sauvegarde est 0,38% moins susceptible de répondre à des questions inoffensives.