Lorsque nous parlons des plus grandes entreprises mondiales d’IA, nous parlons généralement de Google et d’OpenAI. Ces deux sociétés se sont heurtées en 2023 avec ChatGPT affrontant Google Bard (maintenant appelé Gemini). Eh bien, Anthropic, une autre société leader en IA, vient d’annoncer Claude 3, et ce puissant modèle d’IA est suffisamment puissant pour échanger des coups avec GPT-4 et Gemini.

Anthropic a fait beaucoup de travail et de recherches sur son IA. Cependant, il ne se démarque tout simplement pas de la concurrence. Cependant, il vient de lancer Claude 3, le magnum opus de la société.

Anthropic AI présente Claude 3, son modèle le plus puissant

Tout nouveau modèle d’IA qui repousse les limites nous rapproche de l’intelligence artificielle générale (AGI). C’est quelque chose qui a été fait par Anthropic. Selon le rapport, Claude 3 a réussi à surpasser les critères GPT-4 et Gemini in Industry, notamment les connaissances de premier cycle, le raisonnement de niveau supérieur et les mathématiques de base.

Claude 3, tout comme les Gémeaux, se décline en trois tailles différentes. Ce sont les Opus, Sonnet et Haiku. Opus est le plus grand et le plus puissant des modèles. C’est celui qui est passé par les benchmarks. Sonnet et Haiku sont les modèles les plus petits et les plus efficaces. Ces modèles seront proposés à un prix moins cher. De plus, nous ne savons pas si l’un des deux modèles plus petits pourra s’adapter à des appareils comme Gemini Nano. Si tel est le cas, cela rendra possible l’IA générative sur l’appareil pour davantage d’appareils.

Quant aux capacités de Claude 3, il a de sérieux atouts. Par exemple, Claude 3 peut résumer jusqu’à 150 000 mots. Cela lui donne la possibilité de résumer des romans entiers. Un exemple donné par CNBC était de pouvoir résumer l’intégralité de Harry Potter et les reliques de la mort. C’est un livre énorme, au cas où vous ne le sauriez pas. C’est le double des 75 000 mots de Claude 2, et bien plus que les 3 000 mots de ChatGPT.

C’est donc plus que suffisant pour résumer de nombreux documents commerciaux, affaires judiciaires, livres, articles, etc. Ainsi, si vous êtes une entreprise utilisant Claude, vous aurez un compagnon puissant.

Risque et sécurité

L’un des aspects majeurs de l’IA générative est lié aux biais et à la sécurité. À l’heure actuelle, l’intelligence artificielle n’a pas de boussole morale. Ainsi, des garde-fous doivent être intégrés aux modèles afin qu’ils ne génèrent pas de contenu qui entraînerait l’annulation d’un YouTuber. Selon Daniela Amodei, cofondatrice d’Anthropic, Claude 3 a une compréhension plus nuancée de certaines invites que Claude 2.

« Dans notre quête d’un modèle hautement inoffensif, Claude 2 refusait parfois trop », a déclaré Amodei à CNBC. « Quand quelqu’un se heurtait à certains sujets plus épicés ou aux garde-fous de confiance et de sécurité, Claude 2 avait parfois une tendance un peu conservatrice dans ses réponses à ces questions. » Il semble que Claude 3 aurait une meilleure compréhension des sujets délicats et serait mieux à même de s’y retrouver.

En parlant de risque, Anthropic Cloud 3 ne génère pas d’images. Vous êtes autorisé à télécharger des images en entrée, mais cela ne vous donnera pas de sorties d’images. Le rapport faisait référence à la controverse actuelle de Google avec Gemini comme étant l’une des raisons pour lesquelles Claude 3 ne génère pas d’images.

Ce modèle est actuellement disponible pour essayer maintenant. Vous pouvez l’essayer en vous rendant sur le site officiel de Claude 3.

A lire également