Поддержать команду Зеркала
Беларусы на войне
  1. «Дорога в один конец». Действующий офицер рассказал «Зеркалу», что в армии Беларуси думают о войне с НАТО и Украиной
  2. Правительство вводит новшества в регулирование цен — что меняется для производителей и торговли
  3. Власти репрессируют своих же сторонников с пророссийскими взглядами. В чем причина? Спросили у политических аналитиков
  4. Кому и для чего силовики выдают паспорта прикрытия? Спросили у BELPOL
  5. Трамп ввел в США чрезвычайное положение из-за торгового баланса
  6. На рыбном рынке Беларуси маячит банкротство двух компаний. Что об этом известно
  7. Введение дополнительных санкций не заставит Россию сесть за стол переговоров. Эксперты рассказали, что США необходимо сделать еще
  8. На эти продукты уже в скором времени могут подскочить цены. Рассказываем, почему и какие это товары (список солидный)
  9. В Кремле усилили риторику о «первопричинах войны»: чего там требуют от Трампа и что это будет означать для Украины — ISW
  10. У беларусов есть собственный русский язык? Вот чем он отличается от «основного» и что об этом говорят ученые
  11. Пошлины США затронули практически весь мир, однако Беларуси и России в списке Трампа нет. Вот почему
  12. Похоже, мы узнали реальную численность населения Беларуси. И она отличается от официальной статистики
  13. «Да, глупо получилось». Беларусы продолжают жаловаться в TikTok на трудности с обменом валюты
  14. Оказывается, в СИЗО на Володарского были вип-камеры. Рассказываем, кто в них сидел и в каких условиях
  15. Депутаты приняли налоговое новшество. Рассказываем, в чем оно заключается и кого касается


/

Три четверти участников теста Тьюринга с чат-ботом ChatGPT-4.5 приняли искусственный интеллект за человека, сообщает Analytics India Magazine со ссылкой на исследование ученых из Калифорнийского университета в Сан-Диего. Внимание на публикацию обратил «Холод».

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Авторы исследования предлагали испытуемым разные модели ИИ с минимальной либо расширенной инструкцией по поведению во время эксперимента. Минимальная инструкция лишь сообщала нейросети, что она будет участвовать в тесте Тьюринга, и передавала техническую информацию. Расширенная инструкция Persona содержала описание личности, за которую чат-бот должен себя выдавать, список актуальных новостей и подсказки о том, как ведут переписку обычные люди.

Участники эксперимента приняли ChatGPT-4.5 с инструкцией Persona за человека в 73 процентах случаев, а без дополнительных указаний чат-бот «побеждал» в два раза реже. Модель от компании Meta Llama 3.1‑405B с такой же инструкцией успешно выдала себя за человека в 56 процентах диалогов, а без нее — в 38 процентах.

В прошлом году исследователи из этого университета провели тест Тьюринга с ChatGPT-4, сравнив его с версией 3.5. Более новая модель тогда сумела обмануть испытуемых в 67 процентах диалогов, а версия 3.5 — лишь в половине случаев.

Британский математик Алан Тьюринг 75 лет назад предложил тест для определения, можно ли считать искусственный интеллект разумным. В исходной версии теста испытуемый должен одновременно общаться с компьютером и человеком, а после этого ответить, кто из собеседников — настоящий человек.