Поддержать команду Зеркала
Беларусы на войне
  1. Кремль назвал очередное условие, на котором готов к 30-дневному перемирию с Украиной. На Западе отреагировали
  2. Стало известно, как накажут девочек из Могилева, показавших неприличный жест на салюте 9 мая. Их сняли в «покаянном» видео
  3. «Я был убит 2 марта 1943 года». Как солдат потерял четверть мозга, но не сдался болезни, а написал дневник — и стал известен на весь мир
  4. С 1 сентября расписание ждут изменения. Уроков по какому предмету станет больше, — рассказываем
  5. «И буду ждать Путина в четверг в Турции. Лично». Зеленский заявил, что готов лично встретиться с Путиным для переговоров
  6. Цифра превосходит самые смелые ожидания Лукашенко. В Пакистане рассказали, сколько трудовых мигрантов готовы отправить в Беларусь
  7. Беларусская провластная группа выступила перед жителями одной из стран ЕС, но там ей оказались совсем не рады. Что произошло
  8. Синоптики предупредили об опасном гидрометеорологическом явлении
  9. «Ну что, доигрались?» МАРТ выяснил, почему в магазинах пропала картошка
  10. Пропавшая Мельникова объехала три страны, пока говорила коллегам, что болеет. За это время в фонде демсил исчезли деньги — расследование
  11. Путин предложил Киеву возобновить прямые переговоры, прерванные в 2022 году, — назвал дату и место встречи
  12. Вводят изменения, которые касаются рынка недвижимости
  13. 9 мая Путин сделал несколько заявлений, которые противоречат программе российских националистов. В чем их разногласия


/

Французская компания Giskard выяснила: когда пользователя интересует краткий ответ, искусственный интеллект (ИИ) чаще выдает ошибку или придумывает несуществующий факт. Чем меньше слов — тем выше риск дезинформации, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: Freepik.com
Изображение носит иллюстративный характер. Фото: Freepik.com

Французская компания Giskard, которая тестирует ИИ на надежность, провела исследование и обнаружила: если попросить нейросеть ответить кратко, она чаще ошибается. Причем это касается и самых современных моделей вроде GPT-4o, Claude 3.5 Sonnet и Mistral Large.

Исследователи обнаружили, что указание вроде «будь лаконичным» мешает ИИ объяснять суть, проверять вводные и опровергать ложные предпосылки. Чем меньше слов — тем больше компромиссов с точностью. Особенно часто это происходит в вопросах, где требуется анализ, нюансы или контекст.

Более того, современные модели, рассчитанные на диалог и «дружелюбный» стиль общения, вроде GPT-4o, могут ошибаться даже чаще старых версий. А приятный тон, как выяснилось, не гарантирует достоверность.

Важное наблюдение: модели реже поправляют собеседника, если тот уверен в себе. То есть если пользователь пишет неправду с уверенностью, нейросеть с большей вероятностью согласится — особенно в сжатом формате.

Авторы исследования предупреждают: безобидные на первый взгляд формулировки вроде «сделай покороче» могут существенно испортить результат. Особенно в задачах, где важна точность — от медицинских тем до программирования.