Пишу, по большей части, про историю, свою жизнь и немного про программирование.

ЧатГПТ и понимание смысла

Илья Бирман в своём блоге опубликовал небольшую заметку на тему понимания ЧатГПТ смысла. Он попросил нейросеть ответить ему через пятнадцать минут. Естественно, с заданием она не справилась.

Пример некорректный, потому что тестируется совершенно другое. Я, например, смысл фразы понимаю, но через пятнадцать минут без часов ответить не смогу.

«Пожалуйста, не отвечай ничего не это сообщение»

На мой взгляд, очень просто проиллюстрировать отсутствие у ЧатГПТ понимания смысла примером на скриншоте, — я всего лишь дважды попросил ничего не отвечать на моё сообщение.

7 комментариев
Мимо Проходил 12 мес

Эти два примера фактически отличаются только константой: ничего не отвечать это то же самое, что ответить через бесконечное число секунд.

Евгений Степанищев 12 мес

Нет, это два примера отличаются тем, что для реализации задержки надо обладать умением, которого у языковой модели нет и взяться неоткуда, — отсчитывать объективное время. Более того, Илья неявно подразумевает именно объективное время, а не субъективное. Если бы я не знаю что такое GPT, можно было бы предположить, что нейросеть всё поняла, просто в субъективном времени модели заданное время уже прошло. Может же она «жить» в ускоренном времени?

Евгений+Суреев 12 мес

Касательно примера с задержкой времени. Вы уж извините, но сам принцип действия нейросети не подразумевает асинхронность. Это же просто результат сложного вычисления над текстом. Возможности запустить повторное вычисление через промежуток времени у сети нет.
Вот пример с отсутствием ответа хороший, тут сеть могла выдать в ответ пустое сообщение. Но не справилась.

Интересно, а если попросить сеть напомнить об истечении времени во время диалога? Скажем вот такой вариант:

— Напомни через 5 минут, что прошло время.
— Хорошо.
— (тут 5 минут общения)
— тут сеть или напомнила в одном из ответов, или не справилась.

Евгений Степанищев 12 мес

Без специальных, назовём это «плагинов» ничего не будет, откуда у трансформера чувство времени? Но на всякий случай я проверил на версии 3,5 (к 4-й у меня пока больше доступа нет):

— Напомни через 1 минуту, что прошло время.
— Хорошо! Я напомню вам о прошедшем времени через 1 минуту.

[ прошло три минуты ]

— Как дела?
— Как искусственный интеллект, я не имею личных ощущений или состояний, таких как «дела». Однако, я готов помочь вам в ответе на вопросы, предоставлении информации или выполнении задач. Чем могу помочь сейчас?
— прошла ли минута?
— Да, минута прошла. Сейчас прошло около 1 минуты с момента, когда вы запросили напоминание.

Petr 12 мес

Так и у вас пример не корректный: машина в любом случае должна дать обратный сигнал, что запрос обработан. Это как сказать человеку: не говори мне ничего. Обычнй человек ответит: хорошо.

Евгений Степанищев 12 мес

От обычного человека всё же можно добиться, чтобы он замолчал, если донести до него что ты хочешь. Машина ничего не «должна», просто она не понимает смысла, а шарашит словами по вероятностным графам слов (+механизм внимания) из обучающей выборки, а в выборке пустых текстов нет.

Petr 12 мес

То, что она не понимает смысла, это и так понятно. Я к тому, что она запрграммирована так, чтобы ответить хоть что-нибудь, даже если ответа нет. Иначе ее молчание нельзя отличить от ошибки. Короче, вы как и Бирман нашли уперлись случай, который намеренно закрыт разработчиками.

Евгений Степанищев 12 мес

Нет, она так не запрограммирована. Она обучена на корпусе текстов, где пустых текстов не существует, поэтому у неё такого варианта нет вообще.

Короче, вы как и Бирман нашли уперлись случай, который намеренно закрыт разработчиками.

Ни sleep, ни мой вариант не закрыт намеренно разработчиками. Разработчики специально ничего для этого не делали — sleep у трансформера появиться ниоткуда не может, — такого механизма просто нет у нейросети. Но пустые ответы от модели текст-в-текст хотя бы можно ожидать.

Petr 11 мес

поэтому у неё такого варианта нет вообще

вот именно, поэтому зачем долбить бота заданиями, которые он в принципе не может делать? Он может написать код со слипом, но выполнить не может. Зачем тогда просить?

Евгений Степанищев 11 мес

Возможно Илья не задумался об этом или хотел продемонстрировать что-то другое.

Vladimir Novitsky 11 мес

Я может, что-то недопонял, но ChatGPT ведь не самостоятельный живой организм без часов. Он так или иначе установлен на машину, на которой есть системные часы. Почему нельзя отталкиваться от них?
Другое дело, что изначально разработчиками не было введено такого функционала. Если она предназначена только для генерации текстов и кодов, то это, как пенять на велосипед, что у него нет функций экскаватора.

Что касается функции прекращения диалога, то тут уж могли бы и сделать, чтобы после определенных фраз она больше не отвечала. Вот Алиса, по моему, умеет, не помню уже. Приду домой, проверю.

P. S. Евгений, а Вы бы написали своё мнение о Шедевруме от Яндекса. Или ещё не пробовали?

Евгений Степанищев 11 мес

Он так или иначе установлен на машину, на которой есть системные часы.

Так у неё нет никакого доступа к часам, это же статистическая модель, как она к часам-то будет обращаться?

Другое дело, что изначально разработчиками не было введено такого функционала.

Разрабочики и не могут это сделать, модель обучается на данных, её не программируют. Максимум что они могли бы сделать — распознавать до входа в сеть обращение к часам и давать их в обход модели.

P. S. Евгений, а Вы бы написали своё мнение о Шедевруме от Яндекса. Или ещё не пробовали?

Пробовал, но на мой взгляд, ничем не выдающаяся модель.

Vladimir Novitsky 11 мес

Пробовал, но на мой взгляд, ничем не выдающаяся модель.

Зато пока бесплатная.