Magasin d’applis, davantage de données, moins de travail de codage: OpenAI met le turbo sur ChatGPT
Lors de sa première conférence des développeurs, OpenAI a lancé un certain nombre de nouvelles fonctionnalités autour de ChatGPT. Le générateur de texte peut désormais traiter encore plus de données simultanément et ouvre sa propre boutique d’applications pour les ‘GPT’.
Cela fait environ un an qu’OpenAI a pour la première fois rendu ChatGPT largement accessible au public. Depuis lors, la technologie a suscité beaucoup d’attention, provoquant à la fois enthousiasme et panique. Un an plus tard, l’entreprise présente un certain nombre de nouveautés destinées aux utilisateurs professionnels.
Créez vos propres chatbots
Désormais, en tant que développeur, vous pouvez vous-même créer des chatbots dans vos propres applications avec les outils d’OpenAI. Vous pouvez également partager avec d’autres des chatbots que l’entreprise appelle ‘GPT’. En guise d’exemple, l’entreprise évoque un GPT qui permet d’apprendre à cuisiner ou à jouer au poker.
Plus tard ce mois-ci, l’entreprise lancera le GPT Store, où les développeurs pourront partager leurs propres créations (éventuellement moyennant paiement) avec d’autres. Pour les utilisateurs finaux, elle insiste sur le fait que les développeurs n’auront pas accès aux discussions (chats) menées sur ce genre de GPT.
OpenAI a publié l’API Assistants pour les créateurs de ces robots ou d’autres applications GPT. Grâce à la fonctionnalité Code Interpreter Python, l’API peut faire tourner du code dans un bac à sable, visualiser des données et traiter différents formats de fichiers. Ici aussi, OpenAI souligne que les données ou fichiers que vous saisissez, ne seront jamais utilisés pour entraîner le modèle de langage général.
Avec ‘Retrieval’, vous pouvez enrichir l’IA avec des données extérieures au modèle de langage, comme des données de clients de votre entreprise ou d’autres connaissances spécifiques, avec ou sans plugins. ‘Function Calling’ vous permet de décrire des fonctions et de les intégrer dans les réponses.
Toute personne utilisant ChatGPT Plus, la version payante de ChatGPT, recevra désormais des commentaires remontant jusqu’en avril 2023 . Actuellement, c’était septembre 2021.
Turbo: plus d’entrées
Pour GPT-4, disponible pour les développeurs depuis l’été, ‘GPT-4 Turbo’ est disponible en avant-première. L’outil peut traiter 128 Ko de contexte. Cela représente environ 128.000 jetons susceptibles d’être traités simultanément. Pour rappel, un jeton contient environ 4 caractères. Cela signifie que GPT-4 Turbo peut traiter à la fois quelque 512.000 caractères de texte, soit environ 300 pages, pour obtenir des réponses, des résumés, des traductions ou d’autres choses.
OpenAI signale que la version Turbo sera également trois fois moins chère pour les jetons d’entrée et deux fois moins chère pour les jetons de sortie, par rapport à GPT-4. Concrètement, pour GPT-4 Turbo vous payerez 0,01 dollar par jeton d’entrée et 0,03 dollar par jeton de sortie.
L’outil est actuellement encore en phase de test, mais les clients payants peuvent utiliser l’avant-première GPT-4-1106 dans l’API. Bien que les développeurs signalent sur le forum que ce n’est pas encore universel. En particulier, ceux qui dépensent beaucoup pour l’outil, appartiennent à une classe supérieure et peuvent actuellement traiter davantage d’entrées. OpenAI indique qu’elle proposera une version plus stable de GPT-4 Turbo dans les semaines à venir. Cette version, actuellement en avant-première, dispose également d’une… vision: la possibilité de saisir des images dans le chat.
GPT-3.5 Turbo, qui existe depuis un certain temps déjà, fera également l’objet d’une mise à niveau. Ici, le générateur de texte accèdera à une fenêtre contextuelle de 16 Ko, proposera également un mode JSON et un appel de fonction parallèle. Quiconque utilise déjà GPT-3.5 Turbo aujourd’hui, recevra automatiquement la mise à niveau à partir du 11 décembre. Les modèles plus anciens resteront disponibles jusqu’au 12 juin de l’année prochaine. Ici encore, le prix par jeton diminuera.
Moins de complexité
Spécifiquement pour ceux qui développent des applications avec GPT, OpenAI proposera un certain nombre de nouvelles possibilités dans la version Turbo, telles que Function Calling, où vous décrirez les fonctions de votre appli ou de l’API externe pour le modèle. Vous pourrez ainsi spécifier plusieurs actions simultanément. Des instructions spécifiques, telles que ‘répondez en XML’, seront également mieux suivies. OpenAI déclare qu’elle pourra également générer des sorties dans un objet JSON approprié.
Il existe désormais également, en version bêta, un paramètre ‘seed’ permettant de garder les réponses de GPT-4 Turbo plus cohérentes. Voilà qui facilitera la reproduction de réponses, par exemple lors du test de certains éléments.
Protection contre les plaintes en matière de droits d’auteur
OpenAI intègre depuis assez longtemps déjà une protection des droits d’auteur dans ses systèmes. Ce dispositif a désormais été élargi à ‘Copyright Shield’, dans le cadre duquel l’entreprise s’engage à apporter son aide en cas de plainte.
‘Nous allons désormais intervenir et défendre nos clients, et supporter les coûts, s’ils font face à des réclamations juridiques pour violation du droit d’auteur’, affirme OpenAI. Du moins pour les fonctionnalités de ChatGPT Enterprise et de la plate-forme pour développeurs.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici