Tester l’étendue de l’empathie de l’IA : un scénario de cauchemarpar@anywhichway
Nouvelle histoire

Tester l’étendue de l’empathie de l’IA : un scénario de cauchemar

par Simon Y. Blackwell37m2024/03/28
Read on Terminal Reader
tldt arrow
FR

Trop long; Pour lire

Ce document décrit une évaluation de la manière dont divers assistants IA gèrent les conversations empathiques. Les IA évaluées incluent Claude, Gemini, ChatGPT, Willow, Pi.ai, Mistral et une version personnalisée de Claude. Chaque IA a été invitée à proposer des scénarios impliquant d'être triste, heureux ou de faire des cauchemars. Leurs réponses ont été évaluées sur la base de l'expression de la sympathie, des tentatives de compréhension de l'utilisateur, de l'espace réservé aux émotions, de la qualité des conseils, de la conversation affirmative, de la manifestation d'empathie et de l'escalade de problèmes graves. Dans l'ensemble, Willow et Pi.ai ont fait preuve du plus d'empathie, tandis que Mistral avait du mal et avait besoin d'être encouragé. Le Claude personnalisé s'est bien comporté par rapport aux références.
featured image - Tester l’étendue de l’empathie de l’IA : un scénario de cauchemar
Simon Y. Blackwell HackerNoon profile picture
Simon Y. Blackwell

Simon Y. Blackwell

@anywhichway

Working in the clouds around Seattle on open source projects. Sailing when it's clear.

Share Your Thoughts

About Author

Simon Y. Blackwell HackerNoon profile picture
Simon Y. Blackwell@anywhichway
Working in the clouds around Seattle on open source projects. Sailing when it's clear.

ÉTIQUETTES

Languages

CET ARTICLE A ÉTÉ PARU DANS...

Read on Terminal Reader
Read this story in a terminal
 Terminal
Read this story w/o Javascript
Read this story w/o Javascript
 Lite
Also published here
L O A D I N G
. . . comments & more!