ИИ-боты начинают чаще привирать, когда их просят о лаконичных ответах — исследование

08.05.2025 в 18:09,
Hard news

Исследователи из французской компании Giskard, занимающейся тестированием искусственного интеллекта, пришли к выводу, что чем короче ответы ChatGPT и других ИИ-помощников, тем выше вероятность выдачи

недостоверной информации. Такие запросы, как «ответь кратко» или «объясни в двух предложениях» заставляют модели привирать и быть неточными. Источник изображения: AI ...

Автор: 3DNews
Источник: https://3dnews.ru/1122522
×