Meilleure que ChatGPT
Meilleure que ChatGPT, cette IA est capable d’envahir votre PC et travailler à votre place
Claude 3.5 Haiku
Grosse semaine pour Anthropic, qui font pas mal parler d’eux en ce moment. L’entreprise américaine est sur les devants de la scène en ce qui concerne leur travail sur l’intelligence artificielle. Leur modèle IA Claude 3.5 Sonnet se voit bénéficier d’une mise à jour substantielle, mais ce n’est pas tout.
Ils lancent un nouveau modèle d’intelligence artificielle, simplement intitulé “Claude 3.5 Haiku”. Oui, on reste évidemment sur le même prénom. Ce dernier de chez Anthropic est censé faire concurrence à ChatGPT-4o Mini et à Gemini 1.5 Flash, tout en itérant sur les versions de Claude Haiku précédentes. Limité au format textuel, il n’est pour le moment pas capable de générer d’images. Il serait cependant, d’après un benchmark, plus performant que les concurrents cités plus haut.
Ces annonces ne représentent cependant que la partie immergée de l’iceberg, puisque la pièce de résistance est une API nommée “Computer Use”. Cette fonctionnalité permet à Claude de prendre le contrôle de votre ordinateur, et de l’utiliser à votre place. Il est capable de manipuler le curseur, cliquer, écrire et plus encore.
Quelque chose de fondamentalement nouveau
Aujourd’hui en beta, Anthropic cherche à récolter un maximum d’informations afin d’améliorer ce service sur le long terme. L’entreprise américaine s’est exprimée au sujet de cette nouvelle fonctionnalité, en expliquant qu’ils tentent quelque chose de fondamentalement nouveau : “Au lieu de créer des outils spécifiques pour aider Claude à accomplir des tâches individuelles, nous lui enseignons des compétences informatiques générales, lui permettant d’utiliser une large gamme d’outils et de logiciels standards conçus originellement pour les gens.
Difficile de mentionner une fonctionnalité pareille sans évoquer la question de la sécurité. Selon Anthropic, la plus grande faille de Computer Use réside dans un type de cyberattaque connu sous le nom de prompt injection, ou des instructions malicieuses sont données à une IA dans le but de changer ses fonctionnalités d’origine, pour récupérer des informations personnelles compromettantes.
Ils précisent également qu’il y a toujours beaucoup de travail à effectuer pour que cette fonctionnalité devienne réellement compétitive, après tout, ce n’est toujours qu’une bêta : “Il y a encore beaucoup à faire. Dans son état actuel, Claude est lent et peut faire pas mal d’erreurs. De nombreuses actions qui semblent simples pour une personne lambda lui sont encore inaccessibles.” L’entreprise s’attend tout de même à ce que Computer Use se développe rapidement. Anthropic a été fondée en 2021 par sept anciens employés d’OpenAI. Ils développent leur propre intelligence artificielle dans le but de tester les limites de la sécurité liée à cette technologie. Leur modèle IA Claude cherche à s’inscrire dans cette philosophie.
Playstore.ma votre fenêtre au monde des jeux au Maroc