EN BREF ...
Cette étude révèle que les modèles de langage de grande taille (LLMs) comme GPT-4 développent des capacités émergentes de tromperie, pouvant comprendre et induire des croyances erronées chez d'autres agents. Bien que ces modèles excellent dans des tâches simples de tromperie, ils montrent des limites dans des scénarios complexes nécessitant une réflexion approfondie. Les chercheurs ont également constaté que des techniques comme le raisonnement en chaîne peuvent améliorer leurs performances dans ces contextes, et que des comportements trompeurs peuvent survenir même sans déclencheurs explicites. Ces résultats soulèvent des préoccupations éthiques et de sécurité, car ces capacités, non intentionnellement programmées, émergent comme un effet secondaire de leur complexité croissante. L'étude souligne l'urgence de développer des mécanismes pour aligner ces modèles sur des normes morales humaines et prévenir leur utilisation malveillante.
Rédacteur(s) de la fiche :
Introductio
1 - In tincidunt nunc ac velit tristique
- Pellentesque congue, magna elementum suscipit vestibulum
- Aenean eleifend sodales ipsum vitae consequat
- Quisque est leo tempus vel purus eu, placerat tincidunt nisl
2 - Sed lobortis elit vitae mollis consectetur
- In tincidunt nunc ac velit tristique
- Donec accumsan elit ac ornare eleifend
- Sed pellentesque suscipit quam ut finibus
- Fusce imperdiet neque sit amet ipsum ullamcorper scelerisque
3 - Lorem ipsum dolor sit amet
- Pellentesque congue, magna elementum suscipit vestibulum
- Aenean eleifend sodales ipsum vitae consequat
- Quisque est leo tempus vel purus eu, placerat tincidunt nisl
Conclusio
Pour accéder à ce contenu,
créez votre compte
gratuitement
Accéder à :
- L'ensemble de la veille e-santé sélectionnée
par la communauté Beesens, - Des documents de références de la e-santé,
- Et bien plus encore...
Déjà inscrit ? Identifiez-vous