Microsoft CEO Nadella: ‘Expect us to incorporate AI in every layer of the stack’

Microsoft-ChatGPT

Jakub Porzycki/NurPhoto via Getty Images

Mardi soir, lors de la conférence téléphonique sur les résultats du deuxième trimestre de Microsoft avec les analystes de Wall Street, le directeur général Satya Nadella

Il a offert peut-être sa vision la plus large à ce jour de ce que l’investissement de la société dans la startup OpenAI basée à San Francisco, créateurs du populaire ChatGPT, signifie pour Microsoft.

OpenAI, a-t-il dit, représente une partie de la prochaine vague informatique. « La prochaine grande vague de plates-formes, comme je l’ai dit, sera l’IA, et nous sommes également convaincus qu’une grande partie de la valeur commerciale est créée simplement en étant capable de capter ces vagues et que ces vagues ont ensuite un impact sur chaque partie de notre technologie. créer de nouvelles solutions et de nouvelles opportunités », a déclaré Nadella.

Aussi: Comment commencer à utiliser ChatGPT

À cette fin, Microsoft « s’attend à intégrer l’IA dans chaque couche de la pile, que ce soit dans la productivité, que ce soit dans nos services aux consommateurs, ce qui nous passionne ».

Concernant le partenariat avec OpenAI, Nadella a commenté : « Il y a une partie investissement et un partenariat commercial, mais, fondamentalement, ce sera quelque chose qui stimulera, je pense, l’innovation et la différenciation concurrentielle dans chacune des solutions Microsoft leaders en matière d’IA. »

À l’heure actuelle, les exemples d’applications développées avec OpenAI sont GitHub CoPilot, où les réseaux de neurones aident les programmeurs à effectuer des tâches de codage. « GitHub Copilot est en fait sans doute le LLM le plus évolutif », a déclaré Nadella, utilisant le jargon de l’industrie pour les réseaux de neurones qui gèrent le langage, les soi-disant grands modèles de langage, « basés sur le produit qui existe sur le marché actuel ».

Le GPT-3 d’OpenAI, qui fait partie du fonctionnement de ChatGPT, est l’un des plus grands modèles de langage au monde, tel que mesuré par le nombre de paramètres ou de « poids » neuronaux.

Aussi: ChatGPT n’est pas « particulièrement innovant » et « pas du tout révolutionnaire », déclare le scientifique en chef de l’IA chez Meta

Microsoft, a déclaré Nadella, « ajoutera bientôt la prise en charge de ChatGPT », a-t-il déclaré, « permettant aux clients de l’utiliser dans leurs propres applications pour la première fois ».

Azure a récemment mis à disposition quelque chose appelé Azure OpenAI Service, un moyen pour les développeurs d’accéder aux programmes OpenAI, et « plus de 200 clients de KPMG à Al Jazeera l’utilisent », a-t-il déclaré.

Nadella a suggéré que la société intégrera davantage la technologie dans les produits Microsoft, y compris quelque chose appelé Synapse. Synapse est l’approche générale de base de données de Microsoft qui permet des choses comme un « entrepôt de données » et un « lac de données », des moyens courants de regrouper des données pour l’analyse, puis d’interroger les performances sur ces bases de données sélectionnées.

« Vous pouvez nous voir avec des services de données au-delà du service Azure OpenAI », a déclaré Nadella aux analystes, « Pensez à ce que Synapse plus les API OpenAI peuvent faire », sans donner plus de détails.

Aussi: La panne de Microsoft 365 affecte les utilisateurs de Teams et d’Outlook : ce que nous savons jusqu’à présent

Après avoir dit aux analystes que les clients se serraient la ceinture en matière de dépenses dans le cloud, il s’est retourné, affirmant que Microsoft investissait en permanence dans OpenAI et d’autres capacités d’IA.

En particulier, Microsoft Azure doit investir pour développer non seulement la partie de ses installations informatiques qui développe le code OpenAI, appelée « formation », mais également la vaste infrastructure pour répondre aux millions de requêtes des utilisateurs du logiciel. connue dans le commerce sous le nom d' »inférence.« 

« Nous travaillons très, très dur pour construire les supercalculateurs de formation et maintenant, bien sûr, l’infrastructure d’inférence », a-t-il déclaré. « Parce qu’une fois que vous utilisez l’IA dans vos applications, cela passe d’une formation intensive à l’inférence. »

Aussi: Meilleurs rédacteurs d’IA : ChatGPT et autres alternatives intéressantes à essayer

Ce changement de conception, a déclaré Nadella, incitera davantage les clients à Azure. « Je ne pense pas que le prochain lancement d’application ressemblera au lancement d’application de 2019 ou 2020 », a-t-il déclaré.

« Tout le monde va avoir des considérations sur ce à quoi ressemblera mon inférence d’IA, les performances, le coût et le modèle, et c’est là que nous sommes à nouveau bien positionnés. »

En raison de l’avancement généralisé de l’IA, Nadella a déclaré : « Je pense que le cœur d’Azure se transforme, l’activité d’infrastructure se transforme. »

Source