Il y a quelque temps, j’ai découvert une étude intéressante réalisée par des chercheurs de l’Université du Québec sur la sécurité du code généré par ChatGPT, le modèle de langage développé par OpenAI. Vous vous demandez peut-être ce qu’ils ont trouvé ? Eh bien, accrochez-vous, car les résultats sont surprenants !
Les chercheurs ont demandé à ChatGPT de générer 21 programmes et scripts dans différents langages, et seuls cinq d’entre eux étaient sécurisés dès la première tentative. Après avoir insisté pour que ChatGPT corrige ses propres erreurs, ils ont réussi à obtenir sept codes sécurisés de plus.
Une partie du problème semble provenir du fait que ChatGPT ne prend pas en compte un modèle d’exécution de code de type « adversarial« . En d’autres termes, il ne considère pas que le code qu’il génère pourrait être utilisé à des fins malveillantes. De plus, ChatGPT refuse de créer un code offensif, mais créera volontiers un code vulnérable, ce que les auteurs considèrent comme une incohérence éthique.
Les chercheurs ont également constaté qu’une des « réponses » de ChatGPT comme solution miracle aux préoccupations de sécurité était d’avoir uniquement des entrées valides, ce qui n’est pas vraiment réaliste dans le monde réel. De plus, le modèle ne fournit jamais de conseils utiles pour renforcer la sécurité d’un code, sauf si on lui demande précisemment de remédier aux problèmes. Et pour lui demander ça, il faut savoir quelles demandes lui formuler exactement, ce qui veut dire que vous devez vous-même être familier du langage et des vulnérabilités, par avance.
En conclusion de leur étude, les chercheurs pensent que ChatGPT, sous sa forme actuelle, représente un risque et que l’IA est victime du syndrome de Dunning Krüger. Les étudiants et les développeurs doivent être parfaitement conscients que le code généré avec ce type d’outil peut être non sécurisé. De plus, le comportement du modèle est imprévisible, car il peut générer un code sécurisé dans un langage et un code vulnérable dans un autre.
Bref, si vous utilisez ChatGPT ou un autre outil similaire (Github Copilot…etc) pour générer du code, gardez à l’esprit qu’il ne faut pas prendre pour argent comptant que le code fourni est sécurisé. Soyez vigilant et assurez-vous de vérifier et de tester le code pour détecter les éventuelles vulnérabilités. Et n’oubliez pas, comme dit Gaston Lagaffe : « La sécurité avant tout ! »
Il y a quelques semaines, nous vous en parlions sur le blog, Microsoft a annoncé la fonctionnalité Copilot pour Microsoft 365. Avec un objectif : permettre aux utilisateurs d’accéder à l’IA générative pour aider à automatiser des tâches dans, par exemple, les feuilles de calcul Excel. Actuellement, Microsoft 365 Copilot est en beta très restreinte dans quelques rares entreprises.
Néanmoins aujourd’hui l’entité « Garage » de Microsoft qui travaille en amont sur pas mal de fonctionnalités et dépend directement de la R&D Microsoft propose un outil : Excel Labqui permet d’utiliser les fonctions d’IA générative dans Excel.
Il s’agit en fait d’une version améliorée d’un ancien complément appelé Advanced Formula Environment, qui, selon Microsoft, permet aux utilisateurs d’Excel de « créer, modifier et réutiliser plus facilement des formules complexes et les fonctions LAMBDA« .
Le nouveau complément Excel Labs combine les fonctionnalités de l’ancien programme Advanced Formula Environment avec la nouvelle fonction personnalisée LABS.GENERATIVEAI. Microsoft indique qu’il utilise de grands modèles de langage d’OpenAI pour permettre aux utilisateurs de taper des prompts directement dans une feuille Excel afin d’obtenir des résultats.
Alors je vous propose de regarder cela ensemble dans cette nouvelle petite vidéo :
Pour faire fonctionner ce complément vous aurez besoin de la version Excel 365 sur PC ou Mac. Vous devez avoir un compte OpenAI avec une souscription pour l’usage de l’API. C’est payant mais très peu onéreux dans la pratique.
Première chose à faire, installer le composant :
Allez sur insérer,
puis compléments,
Télécharger des compléments.
Une fois le store ouvert, recherchez Excel Labs,
Installez la composante
Ce dernier apparait alors dans votre ruban et vous pouvez y accéder.
Vous devez ensuite donner votre clé OpenAI pour accéder à l’API. Et c’est tout.
Dans l’exemple qui est pris ici, imaginons que j’ai besoin d’analyser simplement les évaluations laissées sous forme de texte par des stagiaires. Je dispose d’un tableau avec le prénom de la personne et son évaluation. Je voudraisun résumé m’indiquant si au global le commentaire est positif, négatif ou neutre.
Je vais pour cela utiliser la fonction LABS.GENERATIVEAI comme cela :
=LABS.GENERATIVEAI(« Synthétise le sentiment global de ce texte comme ‘Positif’, ‘Neutre’ ou ‘Négatif’ : « &[@Evaluation])
En ajoutant donc la colonne « Evaluation » de mon tableau comme source.
Nous obtenons le résultat après un bref temps de calcul… Pas si mal non ? Alors oui c’est pas parfait, parfois pas si évident, mais globalement le résultat est tout de même impressionnant.
Les avancées de l’Intelligence Artificielle ont ouvert de nouvelles possibilités pour automatiser les tâches courantes et libérer du temps pour les activités à plus forte valeur ajoutée. Que vous soyez entrepreneur, étudiant ou travailleur indépendant, l’IA peut être votre alliée pour gagner des heures précieuses chaque semaine. Dans cet article, nous allons vous présenter 8 sites d’IA qui vous aideront à automatiser des tâches telles que la rédaction de textes, l’analyse de données, la planification de rendez-vous, la recherche d’images et plus encore. Nous examinerons en détail les fonctionnalités de chaque site et les avantages qu’ils peuvent offrir pour vous faire gagner du temps et améliorer votre productivité. En explorant ces outils d’IA, vous découvrirez comment ils peuvent être utilisés pour optimiser votre travail quotidien et vous concentrer sur les tâches qui requièrent votre expertise et votre créativité.
ChatGPT n’est que la partie émergée de l’iceberg !
8 sites d’IA pour vous faire gagner des centaines d’heures de travail
1. Stockimg AI Stockimg
Stockimg AI Stockimg est un outil de génération d’images IA qui vous permet de créer instantanément des visuels personnalisés de haute qualité pour votre marque.
Discutez avec n’importe quel … PDF. Téléchargez simplement un PDF et commencez à poser des questions. L’IA va vous donner des réponses liées au contenu du PDF.
En conclusion, l’Intelligence Artificielle offre une multitude de possibilités pour optimiser notre travail quotidien et gagner du temps. Les 8 sites d’IA présentés dans cet article vous offrent des solutions pour automatiser des tâches telles que la rédaction de textes, la recherche d’images, l’analyse de données et bien plus encore. Grâce à ces outils, vous pouvez libérer du temps pour vous concentrer sur des tâches plus importantes et à plus forte valeur ajoutée. Bien que l’IA présente des avantages, il est également important de prendre en compte les défis et les risques liés à son utilisation. En choisissant avec soin les outils d’IA adaptés à vos besoins et en les utilisant de manière responsable, vous pouvez améliorer considérablement votre productivité et votre efficacité. N’oubliez pas que ChatGPT n’est que la partie émergée de l’iceberg, et qu’il existe de nombreuses autres solutions d’IA disponibles pour améliorer votre vie professionnelle et personnelle.
L'entreprise OpenAI, à l'origine de l'incontournable ChatGPT, vient de lancer un nouveau programme de Bug Bounty ! Lorsqu'une faille de sécurité est découverte, la récompense peut atteindre 20 000 dollars !
Par l'intermédiaire de la plateforme Bugcrowd, les chercheurs en sécurité et les hackers peuvent participer au nouveau programme de Bug Bounty lancé par l'entreprise OpenAI (sur cette page). Pour rappel, un bug bounty est un programme de récompense qui permet à un éditeur d'offrir une somme d'argent à une personne qui découvrirait un bug (de sécurité notamment) dans son application, son site web, etc.
Lorsqu'une vulnérabilité est découverte, la récompense attribuée dépendra de l'impact de celle-ci sur le service affecté, ainsi que le niveau de criticité. De ce fait, la récompense peut varier fortement comme le précise OpenAI dans son communiqué officiel : "Nos récompenses vont de 200 dollars pour les découvertes de faible gravité à 20 000 dollars pour les découvertes exceptionnelles."
D'après OpenAI, c'est gagnant-gagnant : "Nous vous invitons à signaler les vulnérabilités, les bugs ou les failles de sécurité que vous découvrez dans nos systèmes. En partageant vos découvertes, vous jouerez un rôle crucial pour rendre notre technologie plus sûre pour tous." Toutefois, c'est important de préciser que le détournement du chatbot ChatGPT (contourner les mesures de protection sur certains sujets) ne sera pas considéré comme une faille de sécurité ou un bug.
Il vaut mieux qu'un hacker éthique découvre une vulnérabilité, que son travail soit récompensé par OpenAI, et que la faille soit corrigée dans le service affecté, plutôt qu'il y ait un nouvel incident de sécurité ou que ce soit un cybercriminel qui effectue cette découverte avant tout le monde... Ce programme de bug bounty lancé par OpenAI est plutôt une bonne nouvelle.
Il y a quelques semaines, nous vous en parlions sur le blog, Microsoft a annoncé la fonctionnalité Copilot pour Microsoft 365. Avec un objectif : permettre aux utilisateurs d’accéder à l’IA générative pour aider à automatiser des tâches dans, par exemple, les feuilles de calcul Excel. Actuellement, Microsoft 365 Copilot est en beta très restreinte dans quelques rares entreprises.
Néanmoins aujourd’hui l’entité « Garage » de Microsoft qui travaille en amont sur pas mal de fonctionnalités et dépend directement de la R&D Microsoft propose un outil : Excel Labqui permet d’utiliser les fonctions d’IA générative dans Excel.
Il s’agit en fait d’une version améliorée d’un ancien complément appelé Advanced Formula Environment, qui, selon Microsoft, permet aux utilisateurs d’Excel de « créer, modifier et réutiliser plus facilement des formules complexes et les fonctions LAMBDA« .
Le nouveau complément Excel Labs combine les fonctionnalités de l’ancien programme Advanced Formula Environment avec la nouvelle fonction personnalisée LABS.GENERATIVEAI. Microsoft indique qu’il utilise de grands modèles de langage d’OpenAI pour permettre aux utilisateurs de taper des prompts directement dans une feuille Excel afin d’obtenir des résultats.
Alors je vous propose de regarder cela ensemble dans cette nouvelle petite vidéo :
Pour faire fonctionner ce complément vous aurez besoin de la version Excel 365 sur PC ou Mac. Vous devez avoir un compte OpenAI avec une souscription pour l’usage de l’API. C’est payant mais très peu onéreux dans la pratique.
Première chose à faire, installer le composant :
Allez sur insérer,
puis compléments,
Télécharger des compléments.
Une fois le store ouvert, recherchez Excel Labs,
Installez la composante
Ce dernier apparait alors dans votre ruban et vous pouvez y accéder.
Vous devez ensuite donner votre clé OpenAI pour accéder à l’API. Et c’est tout.
Dans l’exemple qui est pris ici, imaginons que j’ai besoin d’analyser simplement les évaluations laissées sous forme de texte par des stagiaires. Je dispose d’un tableau avec le prénom de la personne et son évaluation. Je voudraisun résumé m’indiquant si au global le commentaire est positif, négatif ou neutre.
Je vais pour cela utiliser la fonction LABS.GENERATIVEAI comme cela :
=LABS.GENERATIVEAI(« Synthétise le sentiment global de ce texte comme ‘Positif’, ‘Neutre’ ou ‘Négatif’ : « &[@Evaluation])
En ajoutant donc la colonne « Evaluation » de mon tableau comme source.
Nous obtenons le résultat après un bref temps de calcul… Pas si mal non ? Alors oui c’est pas parfait, parfois pas si évident, mais globalement le résultat est tout de même impressionnant.
Chez Samsung, les ingénieurs n'hésitent pas à s'appuyer sur ChatGPT pour travailler. La mauvaise nouvelle, c'est que des données secrètes ont été divulguées au moins trois fois lors de requêtes envoyées à ChatGPT.
Il y a quelques jours, j'ai mis en ligne un article intitulé "De nombreuses infos confidentielles partagées avec ChatGPT, un réel danger pour les entreprises" suite à la publication d'une étude de l'entreprise Cyberhaven, au sujet des données confidentielles communiquées à ChatGPT. Parmi ces données, il y a notamment des informations sensibles / internes, des données clientes, des codes sources, etc... On parle d'environ 3,1% des salariés d'après cette même étude.
Cette affaire qui affecte le géant Samsung est un excellent exemple de ce qu'il ne faut pas faire avec ChatGPT. Samsung compte dans ses rangs une quantité importante d'ingénieurs. Parmi eux, trois ingénieurs qui ont fait un mauvais usage de ChatGPT. En l'espace de 20 jours, Samsung a identifié trois cas problématiques où il y a eu une fuite de données vers ChatGPT.
En effet, l'IA générative a été sollicitée pour corriger des erreurs dans un code source confidentiel. Il est question de modèles de test conçus pour identifier les puces défectueuses. Voici pour un premier cas.
On peut aussi citer un autre exemple où un employé a sollicité le service Naver Clova pour convertir un enregistrement de réunion en document, avant d'envoyer le contenu à ChatGPT pour être accompagné dans la préparation d'une présentation.
Pour le moment, et en réaction à cet incident, Samsung a pris la décision de limiter à 1 024 octets la longueur des requêtes soumises à ChatGPT. À l'avenir, Samsung pourrait bloquer l'accès à ChatGPT pour ses employés s'il y a de nouveaux incidents, même si l'entreprise pourrait développer son propre équivalent à ChatGPT en interne.
N'oubliez pas que toutes les données transmises à ChatGPT sont conservées...
Mercredi dernier Microsoft reconnaissait pas la voix de son patron marketing grand public : Yusuf Mehdi, que sa nouvelle recherche Bing basée sur l’IA pourrait affecter les modèles de revenus des éditeurs de contenu, mais a également laissé entendre qu’elle était prête à discuter des conditions : en gros éviter les actions légales qui commencent à se profiler aux USA entre créateur de contenus humains et société qui on produits des IA en les entrainant sur leur modèles… Mais aussi cet article du New York Times, qui fait état des craintes des éditeurs de journaux quant à la manière dont la recherche assistée par l’IA affecterait les modèles de revenus.
Certains éditeurs pensent à juste titre selon moi, que les personnes qui utilisent la recherche basée sur l’IA n’iront plus consulter les sources de contenu, car elles obtiendront un résumé suffisamment bon … Mais cela risque d’être aussi un problème pour Microsoft (et Google demain) car moins de clics sur les sources dit aussi moins de clics sur les contenus publicitaires… Microsoft teste donc aussi en parallèle de tout cela pour Bing le moyen de produire de la publicité sur les réponses de ChatGPT.
Pour rassurer tout le monde, Microsoft précise que son IA inclut déjà des « citations dans le corps des réponses du chat qui sont liées à des sources« . Les résultats de la recherche comprennent également des liens « en savoir plus« . Mais comme cela ne sera sans doute pas suffisant l’entreprise propose des idée pour reconnaître le contenu de l’éditeur récupéré par ses technologies d’IA, comme :
Des liens vers le contenu de l’éditeur qui afficheront d’autres liens lorsqu’un utilisateur les survolera.
Des « légendes enrichies » pointant vers le contenu sous licence « Microsoft Start » (flux de contenu de Microsoft utilisé par des fournisseurs de contenu rédactionnel qui fait également partie du bureau Windows en tant qu’expérience « Actualité » dans la barre des tâches de Windows 10 et « de Widgets » dans Windows 11) , qui pourraient apparaître à côté des réponses au chat.
Placer des publicités dans l’expérience de chat afin de partager les revenus publicitaires avec les partenaires dont le contenu a contribué à la réponse au chat.
Les salles de rédaction ont déjà été décimées par le passage au contenu en ligne, qui a affecté les revenus des éditeurs de presse. Cependant, les résultats des recherches ont toujours renvoyé les lecteurs vers les sites des fournisseurs de contenu. Cette situation pourrait changer avec les recherches basées sur l’IA.
Des solutions légales sont en train d’être mis en place aux USA pour apporter des réponses économiques :
La « Journalism Competition and Preservation Act of 2022, » présentée l’année dernière , permettrait aux « fournisseurs de journalisme numérique de négocier collectivement avec les grandes plateformes en ligne » sur l’utilisation du contenu, ce qui serait exempté des lois antitrust fédérales, d’après la description de la loi.
Fait notable, souvent en avance sur le reste des USA (nous l’avons vu avec un équivaillent du RGPD), la Californie a sa propre version législative, appelée « The California Journalism Competition and Preservation Act« , qui « obligerait les géants de la publicité numérique à payer aux organes d’information une ‘taxe d’utilisation du journalisme’ lorsqu’ils vendent de la publicité avec du contenu d’information »
Vous trainez un peu trop sur Twitter et parfois, vous ne savez pas comment répondre aux gens qui viennent vous causer. Soit parce qu’ils sont méchants et vous donnent envie de vous emporter. Soit parce qu’ils sont complètement cons et que vous auriez plus de chance de réussir à enseigner les principes de la physique quantique à votre chat qu’à leur expliquer ce que vous avez voulu dire.
Alors pour ne plus perdre de temps avec tous ces gens, vous pouvez soit les ignorer soit faire appel à ChatGPT qui viendra répondre à votre place. Cela vous évitera de vous emporter et vous permettra de répondre sur le ton de votre choix.
Pour cela, l’extension TweetGPT va vous aider. Dispo sous Chrome, elle permet d’un clic de choisir un style de réponse et d’obtenir une réponse qui correspond au message initial.
Notez que je n’ai pas trouvé de message stupide auxquels répondre donc j’ai choisi un tweet normal. Je respecte évidemment la personne sur la capture ci-dessus. C’est uniquement pour la démo.
J’ai donc choisi « Controversial » pour qu’on rigole un peu et voici sa réponse.
ChatGPT est un agent conversationnel qui s’appuie sur l’apprentissage en profondeur et l’intelligence artificielle pour répondre à des questions les plus variées. Il peut proposer une recette de cuisine à partir d’ingrédients suggérés, résoudre un problème mathématique complexe, créer du code et même passer l’examen du barreau avec un score exceptionnel.
Pour utiliser ChatGPT il suffit de vous rendre sur le site officiel depuis votre navigateur ou mieux encore de télécharger l’application pour Windows, MAC ou Linux depuis le Github officiel.
Mais j’ai découvert il y a quelques jours une petite extension tout à fait fabuleuse qui intègre toute la puissance de ChatGPT directement dans votre navigateur Chrome ou Edge. Cette extension se nomme ChatGPT Sidebar.
Je l’ai installé ici depuis le Chrome Web Store, l’extension se nomme ChatGPT Sidebar.
Vous reconnaitrez cette extension grâce à son pictogramme en forme de cerveau. L’installation n’est pas compliquée mais vous devez gérer une clé API depuis votre compte ChatGPT pour connecter ChatGPT Sidebar. C’est parfaitement expliqué dans le processus d’installation.
Une fois l’extension activée vous en profitez directement. Je fais ici une recherche sur Google et un petit encart à droite me propose une petite réponse liée à ma recherche. Mais ce n’est pas le plus intéressant car pour ce type de recherche on voit que la proposition de Google suffit.
Je demande cette fois pour un script en powershell qui me permet de mapper un lecteur réseau. Google me propose une commande mais on voit que la réponse de ChatGPT est bien plus intéressante car il me propose directement une suggestion de script.
Je me rends maintenant sur Wikipédia et je sélectionne 2 mots que je ne comprends pas. L’extension ChatGPT Sidebar me propose immédiatement une explication.
Je sélectionne tout un texte d’un article Wikipédia et l’extension ChatGPT Sidebar me propose plusieurs choix : Expliquer / Traduire / Réécrire / Expliquer / Résumer / Grammaire
Ces dernières fonctions sont celles qui m’intéressent le plus car elles peuvent me faire gagner énormément de temps au quotidien. Dans mon métier d’informaticien je dois engloutir des tonnes d’informations et le fait d’avoir une fonction clé en main qui me propose le résumé d’un article me permet d’aller à l’essentiel. Je peux également reformuler un texte afin de l’intégrer dans une réponse à un client sans avoir à m’embéter.
Voici une petite vidéo officielle qui présente l’extension ChatGPT Sidebar.
On the show this week, we talk about a new report from Goldman Sachs on how Generative AI could affect 300 million jobs - and with Microsoft 365 Copilot on the front line, we consider how likely this is. And finally - Microsoft Teams "V2" - the new Teams has began appearing in Microsoft 365 tenants. Plus, you can replace your face with an Avatar, use the preview of the Loop App - and Windows 11 might be appearing on your Teams Rooms devices very soon.
Bill Gates considère ChatGPT comme la principale révolution technologique depuis la première version d'internet civil et les interfaces graphiques présentées en 1980. Analyse de Christophe Duprat, CEO de Qlower.
Microsoft vient d’annoncer la prévision du kit de développement « Semantic Kernel ». Logiquement ce dernier est dispo en Open Source sur GitHub. Le Semantic Kernel est donc un kit de développement logiciel (SDK) léger qui facilite l’utilisation d’éléments tels que ChatGPT d’OpenAI dans les applications, selon John Maeda, vice-président de Microsoft chargé de la conception et de l’intelligence artificielle, il fonctionne avec les langages de programmation conventionnels, avec une prise en charge actuelle en beta de « C# et Python ». Microsoft envisage d’ajouter la prise en charge de TypeScript et d’autres langages dans un futur proche.
Semantic Kernel, qui a débuté en tant que projet d’incubation interne à Microsoft, il prend actuellement en charge le modèle GPT-4 d’OpenAI et le service Azure OpenAI. Ses capacités peuvent être intégrées dans n’importe quel type d’application et peuvent se connecter à des sources de données et à des services externes. Semantic Kernel se distingue également par le fait qu’il permet aux développeurs d’utiliser des prompts complexes, ce qui peut s’avérer problématique lorsqu’on travaille avec de l’IA
« Ainsi, imaginez que vous puissiez facilement créer des invites complexes, des invites à multiples facettes, des invites qui font toutes sortes de choses comme se connecter à du code natif. Ce genre de choses est offert gratuitement avec Symantec Kernel » – John Maeda.
Ce SDK peut être en réalité considéré comme un ensemble de bonnes pour ajouter une IA riche en sémantique aux applications existantes. Ainsi la source GitHub comprend quelques exemples de codes modèles que les développeurs peuvent essayer. Il existe une capacité de « résumé de chat simple » pour les applications. Un exemple de code « Book creator » permet aux applications de créer des aperçus de livres. Il existe également un modèle de code de connecteur de base qui peut être utilisé pour « s’authentifier et se connecter à une API ».
Nous reviendrons lors du prochain Briefing sur les IA conversationnelles et leurs usages.
Je pense qu’on est nombreux à ne pas encore nous être remis du film Matrix. On kiffe ça, les wallpapers aux caractères verts sur fond noir et autres économiseurs d’écran et j’en passe.
Faut que ça défile à fond pour qu’on s’imagine être Neo, l’élu !
Faut assumer ! C’est pourquoi je vous invite à installer cette extension pour Chrome et la petite feuille de style qui va transformer ChatGPT en véritable matrice intelligente.
Microsoft a donc annoncé sans surprise ses nouvelles fonctions d’intelligence artificielle pour les applications Microsoft 365, avec de nombreuses démonstrations assez bluffantes. Ses fonctions présentées logiquement sous l’appellation « Copilot » sont basées sur GPT-4 d’OpenAI, cette nouvelle capacité sera placé à côté des applications Microsoft 365 comme un assistant, apparaissant dans la barre latérale comme un chatbot qui permettra aux utilisateurs de l’appeler pour générer du texte dans les documents, créer des présentations PowerPoint basées sur des documents Word, aider dans l’animation d’une réunion Teams ou même aider à utiliser des fonctionnalités telles que les tableaux croisés dynamiques dans Excel. La promesse énoncée par Microsoft est ambitieuse : « offrir une nouvelle façon de travailler »… tout simplement.
Amusant, l’annonce de Microsoft intervient quelques jours seulement après que Google a annoncé des fonctionnalités d’IA similaires pour Google Workspace, notamment la génération de texte assistée par l’IA dans Gmail, Docs, etc. Cette annonce de Google n’a visiblement pas enthousiasmé les foules avec aucune démo probante et surtout très peu de détail sur les technologies utilisées. Où est passé Bart ?
Regardons concrètement ce que propose Microsoft :
Copilot avec Word
Il pourra être utilisé dans Word pour rédiger des documents à partir d’autres fichiers. Le texte généré par l’IA sera ensuite être librement édité et adapté. Copilot étant essentiellement un chatbot, vous pourrez même lui demander de créer une présentation PowerPoint de 10 diapositives à partir d’un document Word lui même généré à partir de données externes…
Une petite vidéo de résumé :
Copilot avec Excel
C’est encore plus impressionnant dans Excel. Les utilisateurs peuvent utiliser Copilot pour créer instantanément une analyse SWOT ou un tableau croisé dynamique à partir de données. Là encore en langage naturel.
La vidéo de résumé :
Copilot avec Teams
Avant la réunion, Copilot pourra fournir des informations sur une réunion Microsoft Teams à venir, préparer les gens avec des mises à jour sur les projets connexes, les changements tels que des embauches récentes, et même des mises à jour sur les collègues qui pourraient être rentrés de vacances.
Pendant la réunion, la fonction Copilot permettra de transcrire les réunions, de vous rappeler les éléments que vous auriez pu manquer si vous étiez arrivé en retard, ou même de résumer les actions à entreprendre tout au long d’une réunion. Sacré programme qui nous était déjà promis en 2019 lors d’une visite sans la Silicon Valley chez BlueJeans avec une réalisation qui n’était par vraiment à la hauteur ce cette promesse… A voir donc dans les faits, les démonstrations ayant toujours tendance là dessus à être un peu trop « vendeuses »…
Une petite vidéo de résumé :
Et une démo de la fonction impressionnant de résumé des réunions :
Copilot avec Outlook
Microsoft promet que Copilot vous permettra de passer moins de temps à trier vos emails et à y répondre. Les fils de discussion peuvent être résumés et Copilot peut même créer des brouillons de réponse avec des boutons permettant d’adapter le ton ou la longueur d’un email. Si la démo est réellement bluffante là encore, à voir comme cela se passera dans la réalité, ce que nous allons pouvons regarder à court terme dès la dispo (d’ici l’été ?) de tout ceci.
Une petite vidéo de présentation de ces fonctions :
La disponibilité et les prix
Microsoft indique qu’elle teste actuellement son Copilot Microsoft 365 avec 20 clients et qu’elle étendra la période d’essai dans les mois à venir. « Nous en dirons plus sur les prix et les détails dans les mois à venir« , déclare Microsoft dans un billet de blog. Nous en reparlerons au prochain Briefing Calipia. Et nous espérons bien avoir beaucoup plus d’informations lors de notre prochaine Learning Expédition à Seattle en octobre (contacter nous si vous souhaitez nous accompagner : contact@calipia.com).
Pour ce qui est des prix, aucune information mais il est assez clair que ces fonctions risquent bien de se retrouver, non pas de base dans les plans E3, E5… mais dans des compléments « premium », histoire sans doute de rentabiliser les investissements colossaux que l’entreprise à fait dans OpenAI…
la question essentielle : la pertinence de l’IA
Jared Spataro s’est empressé de préciser dans la conférence que Copilot n’est pas toujours correct. « Parfois Copilot aura raison, d’autres fois il se trompera utilement, vous donnant une idée qui n’est pas parfaite mais qui vous donne quand même une longueur d’avance« . « Nous expliquons clairement comment le système prend ses décisions en indiquant les limites, en renvoyant aux sources et en invitant les utilisateurs à examiner, à vérifier les faits et à ajuster le contenu en fonction de leur expertise en la matière », explique Spataro dans un billet de blog, en rappelant les principes de l’entreprise en matière d’intelligence artificielle.
Pour aller plus loin il a donné aussi des indications sur le mode de fonctionnement du système en prenant un exemple avec Word :
« Si vous demandez à Word de créer un document sur la base de vos données, Copilot enverra ceci au Microsoft Graph pour récupérer le contexte et les données avant de modifier le « prompt » pour l’envoyer ensuite au modèle linguistique GPT-4. La réponse est ensuite envoyée au Microsoft Graph pour des vérifications supplémentaires de base, de sécurité et de conformité, avant de renvoyer la réponse et les commandes aux applications Microsoft 365« .
« Nous expliquons clairement comment le système prend ses décisions en indiquant les limites, en renvoyant aux sources et en invitant les utilisateurs à examiner, à vérifier les faits et à ajuster le contenu en fonction de leur expertise en la matière« , explique Spataro dans un billet de blog, en rappelant les principes de l’entreprise en matière d’intelligence artificielle.
On March 16, Microsoft launched its latest AI-powered innovation in Microsoft 365 CoPilot, aimed at using AI to remove the drudgery of many Office tasks. We don't know when the new capabilities will be available or what they will cost. The demos looked wonderful, but how things work out when exposed to real users is an entirely different manner. Time will tell!
Alors que Microsoft, nous vous en parlons régulièrement sur le Blog utilise de plus en plus de fonctions issues de son partenariat avec OpenAI, c’est au tour de sa filiale Linkedin de bénéficier de l’IA générative ChatGPT à la sauce Bing Chat . Aujourd’hui, comme le souligne TechCrunch le réseau social va ajouter des fonctions d’IA pour ses utilisateurs et les entreprises qui publient des offres d’emploi.
Côté profil personnel
Ainsi lorsque vous saisissez les informations de votre profil par exemple, comme le résumé ou l’expérience professionnelle, la nouvelle IA générative utilisera la toute dernière version 4 de GTP (qui au passage est vraiment bluffante et constitue une sérieuse itération de la 3.5, mais c’est un autre sujet nous y reviendrons), pour générer les textes, vous pourrez ensuite à votre guise modifier tout ceci bien entendu, il ne s’agit ici que de suggestions.
Cette fonctionnalité est disponible dès maintenant pour les personnes qui ont souscrit un abonnement payant à LinkedIn Premium.
Autre volet concernant cette fois les pages entreprises.
Les entreprises peuvent créer des descriptions de postes, en utilisant des invites de base telles que le titre du poste et le nom de l’entreprise, avec des informations générées par GPT-3.5 cette fois. Là encore, les entreprises peuvent logiquement modifier ces suggestions créées par l’IA.
C’est cet après midi à 16h
Cette nouvelle intervient alors que Microsoft présentera son grand événement en ligne à 16h ici « The Future of Work with AI »qui devrait montrer comment l’IA générative sera incorporée dans les applications Office.
Satya Nadella, etJared Spataro, feront des présentations lors de l’événement diffusé en direct. L’entreprise affirme que les personnes qui regarderont l’événement « apprendront comment l’IA alimentera une toute nouvelle façon de travailler pour chaque personne et chaque organisation » quelle promesse !
Cet événement en ligne, dont la première rumeur remonte à février, montrera probablement comment Microsoft prévoit d’ajouter des fonctions génératives de type IA, telles que son nouveau Bing Chat, à Office comme par exemple des fonctionnalités telles qu’un chatbot écrivant automatiquement dans Word, ou proposant un tableau Excel adapté à un usage particulier ou à une description d’un problème que vous auriez fait… Il sera intéressant de voir jusqu’où Microsoft est allé dans l’utilisation de l’IA comme « copilote » dans ces domaines.
A ce propos, notre prochaine Learning Expedition sur le thème de l’Environnement de travail et l’IA se déroulera du 8 au 14 octobre 2023 contactez nous si vous souhaitez plus d’informations (formation@calipia.com), nous devrions aller chez Microsoft, AWS à Seattle, puis dans la Silicon Valley chez Google, Nvidia, Apple, …
Microsoft met en avant ses offres pour créer des supercalculateurs via son programme de cloud computing Azure pour aider la société OpenAI. Parallèlement, la société a également annoncé une nouvelle machine virtuelle d’IA utilisant les nouvelles GPU améliorés de NVIDIA. Ainsi la nouvelle ND H100 v5 VM de Microsoft utilise, on s’en doutait, les GPU H100 de NVIDIA, Il est donc possible pour toutes les entreprises qui ont besoin d’ajouter des fonctions d’IA d’accéder à ce service de machine virtuelle qui présente les caractéristiques suivantes, un nouveau bond en terme de performance :
8x GPU NVIDIA H100 Tensor Core interconnectés via la nouvelle génération de NVSwitch et NVLink 4.0
400 Gb/s NVIDIA Quantum-2 CX7 InfiniBand par GPU avec 3,2 To/s par VM dans un réseau fat-tree non bloquant NVSwitch et NVLink 4.0 avec une bande passante bisectionnelle de 3,6 To/s entre 8 GPU locaux dans chaque VM.
Processeurs Intel Xeon Scalable de 4ème génération Interconnexion hôte-GPU PCIE Gen5 avec une bande passante de 64 Go/s par GPU 16 canaux de DIMM DDR5 à 4800 MHz
Cette offre vient s’ajouter au ChatGPT in Azure OpenAI Service annoncé précédemment par Microsoft, nous vous en parlions hier sur le blog, qui permet à des tiers d’accéder à la technologie des chatbots via Azure.
Dans un autre billet de blog, Microsoft explique comment l’entreprise a commencé à travailler avec OpenAI pour aider à créer les supercalculateurs nécessaires au grand modèle de langage de ChatGPT (donc le nouveau Bing). Pour ce faire, il a fallu relier des milliers de GPU d’une toute nouvelle manière. Le blog propose une explication de Nidhi Chappell, chef de produit chez Microsoft pour Azure High Performance Computing and AI :
Pour former un grand modèle de langage, explique-t-elle, la charge de calcul est répartie entre des milliers de GPU dans un cluster. À certaines phases de ce calcul – appelé allreduce – les GPU échangent des informations sur le travail qu’ils ont effectué. Un réseau InfiniBand accélère cette phase, qui doit se terminer avant que les GPU ne puissent commencer le morceau de calcul suivant.
Ce matériel est associé à un logiciel qui permet d’optimiser l’utilisation des GPU NVIDIA et du réseau qui les fait fonctionner ensemble. Microsoft indique qu’elle continue d’ajouter des GPU et d’étendre son réseau tout en essayant de les faire fonctionner 24 heures sur 24 et 7 jours sur 7 grâce à des systèmes de refroidissement, des générateurs de secours et des systèmes d’alimentation électrique sans interruption.
Microsoft a annoncé en fin de semaine que son service Azure OpenAI offre désormais en preview de ChatGPT, le célèbre moteur de chat basé sur OpenAI. Le service Azure OpenAI de Microsoft prend déjà en charge d’autres modèles génératifs OpenAI, notamment « Dall-E 2 » pour la génération d’images, « GPT-3.5 » pour la génération de langage naturel et de code, et « Codex » pour la génération de code à partir de langage naturel. L’ajout de l’aperçu ChatGPT permettra donc de renforcer les chatbots pour les utiliser dans le cadre du service à la clientèle, entre autres cas d’utilisation.
Voici comment Microsoft décrit ces cas d’utilisation :
« Désormais, avec ChatGPT en avant-première dans Azure OpenAI Service, les développeurs peuvent intégrer des expériences personnalisées basées sur l’IA directement dans leurs propres applications, notamment en améliorant les robots existants pour répondre à des questions inattendues, en récapitulant les conversations dans les centres d’appels pour permettre une résolution plus rapide des problèmes d’assistance à la clientèle, en créant de nouveaux textes publicitaires avec des offres personnalisées, en automatisant le traitement des réclamations, et bien plus encore« .
Microsoft vend également l’utilisation de son service Azure Cognitive Search avec ces chatbots améliorés par ChatGPT. L’intégration avec Azure Cognitive Search permettra aux organisations de connecter le chatbot à des données spécifiques de l’entreprise, évitant ainsi les réponses génériques. Le service Azure Cognitive Search agit comme « une base de connaissances externe qui peut retrouver des éléments rapidement et avec une bonne pertinence », a expliqué Microsoft dans cette annonce.
Microsoft a présenté également Azure OpenAI Studio, un environnement de développement permettant de créer des applications intelligentes « sans code ». Il peut également être utilisé pour « personnaliser ChatGPT ».
En général, Microsoft utilise « la puissance des grands modèles de langage d’OpenAI et l’infrastructure optimisée pour l’IA d’Azure » pour soutenir ses divers produits commerciaux et grand public, nous vous parlions de ceci avec Dynamics la semaine dernière sur le Blog.
Le service Azure OpenAI peut être utilisé dans différents scénarios, selon Microsoft. Il peut être utilisé pour générer du contenu en réponse aux demandes des clients ou pour personnaliser l’interface utilisateur sur les sites web. Il peut être utilisé pour résumer le contenu dans des scénarios d’assistance à la clientèle ou pour résumer les tendances des médias sociaux. Le service Azure OpenAI peut également générer du code à partir de requêtes en langage naturel, y compris des requêtes SQL et de la documentation de code. Le service renforce également la recherche grâce à ses capacités de « knowledge mining ».
Le choses qui fâchent La preview de ChatGPT dans le service Azure OpenAI peut actuellement être essayé, mais Microsoft peut facturer certains aspects, même en beta… : Microsoft indique que le prix est de 0,002 $/1k tokens et la facturation pour toute utilisation de ChatGPT commence à partir d’aujourd’hui (13 mars). Outre le tarif d’utilisation des modèles (appelé « inferencing » et facturé sur la base des « tokens »), Azure OpenAI a des coûts d’hébergement et de formation. Les détails de la tarification sont indiqués sur cette page. Ainsi le taux d’utilisation du modèle d’inférence pour 1 000 jetons varie en fonction du modèle d’IA sélectionné. Par exemple, le modèle « Curie » est tarifé à « 0,002 $/1 000 jetons ».
La page de tarification ne donne pas beaucoup de détails sur ces questions, nous reviendrons sur ceci lors d’une session dédiée au prochain Briefing Calipia, histoire de tenter de comprendre les modes de tarifications cloud en général de l’éditeur. N’hésitez pas à vous inscrire.