Поддержать команду Зеркала
Беларусы на войне
  1. «За чей счет?» Родители честно ответили на новый запрет для школьников
  2. После 2020-го на заводах по требованию Лукашенко увольняли из-за «политики» — из закрытых документов стало понятно, чем это обернулось
  3. Лукашенко высказался по болезненной в последнее время для беларусов теме и предложил еще месяц потерпеть: «Это такой хитрый замысел»
  4. Почему Лукашенко перенес парад в День Победы? Спросили у аналитиков
  5. «Прошение о помиловании я не писал». Большое интервью «Зеркала» с Юрием Зенковичем, которому дали 11 лет за «государственный переворот»
  6. Налоговики напомнили о сборе, о существовании которого вы могли даже не догадываться. Но грозит солидный штраф, если его не оплатить
  7. Спасатели нашли человека на дне океана. После катастрофы он пробыл там почти трое суток — рассказываем об этой истории
  8. Лукашенко помиловал 42 осужденных по «политическим» статьям
  9. Эксперты рассказали, почему Россия против соглашения о прекращении огня и присутствия миротворцев в Украине
  10. Из Лондона Мельникова вылетела на Шри-Ланку, где могла угодить в «ловушку спецслужб» и оказаться в Беларуси — польское СМИ
  11. Лукашенко заявил, что «немного задержался» у власти, и призвал «потерпеть»
  12. Сложно поверить, но папа Франциск собирался участвовать в крещении детей беларусского бизнесмена — однако умер за день до. Рассказываем
  13. На рынке недвижимости в Минске возник дефицит некоторого жилья, из-за чего рекордно подскочили цены. Эксперты объяснили, что происходит
  14. Конклав кардиналов в Ватикане выбрал папу римского. Стало известно его имя


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.