Tucker Carlson voulait voir « l’anxiété » Sam Altman. Il voulait admettre qu’il était tourmenté par le pouvoir qu’il possédait. Après avoir échoué sa peur pendant 30 minutes avec une langue professionnelle et un avertissement minutieux, le PDG d’Openai l’a finalement fait.
« Je n’ai pas dormi profondément depuis le lancement de Chatgpt », a déclaré Altman à Carlson. Il rit terriblement.
Dans une large interview avec Tucker Carlson, le PDG Openai a expliqué le poids de la supervision de la technologie que des centaines de millions de personnes utilisent actuellement chaque jour. Il n’y a pas beaucoup de scénarios Terminator ou de robots voyous. Au contraire, pour Altman, c’est un ajustement et un compromis normaux, presque invisibles que son équipe fait chaque jour. Lorsque le modèle rejette une question, comment elle encadre la réponse, quand elle décide de repousser et quand elle passe quelque chose.
Ces petites options de conception ont été reproduites des milliards de fois dans le monde, façonnant comment les gens pensent et agissent d’une manière qu’ils ne peuvent pas complètement suivre.
« Ce qui me fait perdre le sommeil, c’est qu’une très petite décision qu’un modèle pourrait se comporter légèrement touche différemment des centaines de millions de personnes », a-t-il déclaré. « L’impact est énorme. »
Un exemple de poids accru: le suicide. Altman compte environ 15 000 personnes qui prennent vie chaque semaine à travers le monde, et si 10% d’entre eux sont des utilisateurs de Chatgpt, il est possible qu’environ 1 500 personnes ayant l’idée de suicide se soient entretenues au système et se sont suicidés de toute façon. (Les données de l’Organisation mondiale de la santé confirment qu’environ 720 000 personnes dans le monde prennent leur vie chaque année).
« Nous n’avons probablement pas sauvé leur vie », a-t-il admis. « Peut-être aurions-nous pu dire quelque chose de mieux. Peut-être aurions-nous pu être plus agressifs. »
Openai a récemment été poursuivi par des parents qui auraient encouragé Chatgpt à se suicider par son fils de 16 ans, Adam Raine. Altman a déclaré à Carlson que l’incident était une « tragédie » et a dit que la plate-forme explorait actuellement les options si le système traîne actuellement avec Chatgpt à propos d’un suicide, et que la plate-forme explore les options si le système n’est pas en mesure de contacter les parents et n’est pas en mesure d’appeler les autorités.
Altman a ajouté qu’il sera tendu avec la confidentialité des utilisateurs plutôt que la « position finale » d’OpenIA.
Dans des pays comme le Canada et l’Allemagne, où le suicide assisté par le suicide est légal, Altman a déclaré qu’il pouvait imaginer que Chatgpt était une maladie en phase terminale. Cependant, il a ajouté que Chatgpt ne devrait être opposé à rien.
Le compromis entre la liberté et la sécurité est effectué à travers toute la pensée d’Altman. En gros, il a déclaré que les utilisateurs adultes devraient être traités « comme des adultes » et à un large éventail de latitudes pour explorer les idées. Mais il y a une ligne rouge.
« Ce n’est pas l’intérêt d’une société d’aider Chatgpt à construire des armes de biow », a-t-il dit catégoriquement. Pour lui, la question la plus difficile est de la zone grise où la curiosité tombe en danger.
Carlson l’a forcé à faire dominer ces décisions un cadre moral. Altman a déclaré que le modèle de base reflète « un groupe de bien et de mal ».
Openai superpose ensuite le code de conduite (ce qu’il a appelé la « spécification du modèle ») expliqué par des philosophes et des éthiciens, mais finalement déterminé par lui et le conseil d’administration.
« Je suis celui qui devrait être responsable », a déclaré Altman. Il a souligné son objectif de refléter «la moyenne pondérée des opinions morales humaines», plutôt que d’imposer ses propres croyances.
C’est un équilibre impossible à faire exactement la bonne chose qu’il admet.
L’entretien a également mentionné les questions du pouvoir. Altman a déclaré qu’il craignait que l’IA ne concentre l’impact sur une poignée d’entreprises, mais il pense maintenant que les adoptions répandues « de la relance » des milliards de personnes, augmentant la productivité et la créativité. Pourtant, il reconnaît que la trajectoire peut changer et doit être vigilante.
Mais tout l’accent maintenant sur son travail technique et ses effets géopolitiques est les changements culturels subtils et presque méconnus qui se propagent lorsque des millions de personnes interagissent chaque jour avec le même système. Il a souligné des choses triviales comme la cadence de Chatgpt et la surutilisation des tirets EM. Si de telles habitudes peuvent s’entraîner dans la société, que pourraient continuer?
Altman, qui regarde souvent les cheveux gris, apparaît comme un personnage de Frankenstein, en proie à l’échelle de ce qu’il déchaîne.
« Vous devez garder ces deux idées simultanées dans votre tête », a déclaré Altman. «Une chose est que cela se produit tous parce que de si grands ordinateurs augmentent très rapidement le nombre avec ces grandes et énormes matrices.
« D’un autre côté, l’expérience subjective de l’utiliser semble vraiment aller au-delà d’une calculatrice flashy, et c’est surprenant pour moi d’une manière qui va au-delà de ce à quoi ressemble sa réalité mathématique. »
Openai n’a pas immédiatement répondu à la demande de commentaires de Fortune.