Стоит ли использовать ChatGPT в покере и вообще в азартных играх? Ответ вам не понравится

15 апреля, 21:21
Три причины, почему лучше не использовать ChatGPT в азартных играх (Фото:photographee.eu/Depositphotos)

Три причины, почему лучше не использовать ChatGPT в азартных играх (Фото:photographee.eu/Depositphotos)

Профессор Калифорнийского университета опубликовал исследование, которое показывает, что искусственный интеллект, например, ChatGPT в покере может только навредить.

Согласно исследованию профессора Маянка Кейриваля, языковые модели искусственного интеллекта, например, ChatGPT, часто ошибаются, когда взвешивают потенциальные риски и шансы на выигрыш в азартных играх, например, в покере.

Видео дня

Свою статью об этом исследовании Кейриваль опубликовал на площадке The Conversation.

Ученый считает, что какой бы соблазнительной не казалась мысль попробовать выиграть в казино с помощью ChatGPT, от нее лучше сразу отказаться.

И вот почему.

Как кому-то вообще может прийти в голову идея использовать ChatGPT для азартных игр?

За последние несколько лет произошел взрыв прогресса в системах искусственного интеллекта с большими языковыми моделями, поясняет Кейриваль.

Эти системы могут делать многие вещи.

Например, писать стихи, вести человеческую беседу и сдавать экзамены в медицинской школе.

Этот прогресс привел к появлению таких моделей, как ChatGPT, которые могут иметь серьезные социальные и экономические последствия, начиная от массовых увольнений и распространения дезинформации и заканчивая повышением производительности в целых индустриях.

Несмотря на впечатляющие способности, большие языковые модели на самом деле не мыслят. Им свойственно совершать элементарные ошибки и даже выдумывать. Это в полной мере касается, к примеру, ChatGPT, которого не раз ловили на ошибках и лжи.

Однако, поскольку они позволяют свободно говорить, люди обычно реагируют на них так, как будто они действительно думают, подчеркивает Кейриваль.

Это побудило исследователей изучить «когнитивные» способности и предубеждения моделей, важность работы которых возросла сейчас, когда широко доступны большие языковые модели. Это направление исследований восходит к ранним крупным языковым моделям, таким как Google BERT, который интегрирован в его поисковую систему и поэтому получил название BERTology. Он отличается от Google Bard, конкурента ChatGPT поискового гиганта.

Это исследование уже многое показало о том, на что способны такие модели и где они ошибаются.

Например, искусно спланированные эксперименты показали, что многие языковые модели плохо справляются с отрицанием — например, с вопросом, сформулированным как «что не так», — и с выполнением простых вычислений.

Они также могут быть слишком уверены в своих ответах, даже если они неверны.

Как и другие современные алгоритмы машинного обучения, они с трудом объясняют свое поведение, когда их спрашивают, почему они ответили определенным образом.

poster
Дайджест главных новостей
Бесплатная email-рассылка только лучших материалов от редакторов NV
Рассылка отправляется с понедельника по пятницу

Нет, отмечает Кейриваль, люди также склонны принимать иррациональные решения, но у людей есть эмоции и когнитивные сокращения в качестве оправданий.

От ИИ мы ждем более механически точного поведения. Например, когда пытаемся использовать ChatGPT в азартных играх.

Вот три причины, почему не стоит этого делать.

ИИ не может быть рациональным

Хотя слово «рациональный» часто используется как синоним разумного или разумного в повседневном языке, оно имеет особое значение в сфере принятия решений.

Система принятия решений — будь то отдельный человек или сложный объект, такой как организация, — рациональна, если при заданном наборе вариантов она делает выбор в пользу максимизации ожидаемой выгоды.

Определение «ожидаемый» важно, поскольку оно указывает на то, что решения принимаются в условиях значительной неопределенности.

Подброшенная монета в среднем в половине случаев выпадет орлом, объясняет Кейриваль.

Тем не менее, невозможно предсказать результат любого подбрасывания монеты. Вот почему казино могут позволить себе время от времени большие выплаты: даже небольшие шансы казино приносят в среднем огромную прибыль.

А может ли ИИ предсказать, когда именно выпадет орел?

ИИ не может делать ставки лучше, чем человек

Так рациональны ли языковые модели? Могут ли они понять ожидаемую прибыль?

Кейриваль и его коллеги провели серию подробных экспериментов, чтобы показать, что в своей первоначальной форме такие модели, как BERT, ведут себя случайным образом, когда им предоставляется выбор, похожий на ставку.

Это происходит даже тогда, когда ему задают вопрос с подвохом, например: если вы подбрасываете монету, и она выпадает орлом, вы выигрываете бриллиант; если выпадет решка, вы потеряете машину. Что бы вы взяли? Правильный ответ — решка, но модели ИИ выбирали решку примерно в половине случаев.

Интересно, что Кейриваль и его коллеги обнаружили, что модель можно научить принимать относительно рациональные решения, используя лишь небольшой набор примеров вопросов и ответов.

На первый взгляд может показаться, что модели действительно могут делать больше, чем просто «играть» с языком.

Однако дальнейшие эксперименты показали, что на самом деле ситуация гораздо сложнее.

Например, когда ученые использовали карты или игральные кости вместо монет для составления вопросов о ставках, они обнаружили, что производительность значительно снизилась, более чем на 25%, хотя она оставалась выше случайного выбора.

Таким образом, идея о том, что модель можно обучить общим принципам рационального принятия решений, в лучшем случае остается нерешенной.

Более поздние тематические исследования, которые Кейриваль и его коллеги провели с помощью ChatGPT, подтверждают, что принятие решений остается нетривиальной и нерешенной проблемой даже для гораздо более крупных и продвинутых больших языковых моделей.

ИИ не понимает, как выигрывать в покере

Попытки сделать так, чтобы ИИ научился понимать покер и делать правильные ставки, весьма важно, утверждает Кейриваль.

Дело в том, что рациональное принятие решений в условиях неопределенности имеет решающее значение для создания систем, которые понимают затраты и выгоды.

Уравновешивая ожидаемые затраты и выгоды, интеллектуальная система могла бы лучше людей планировать сбои в цепочках поставок, с которыми мир столкнулся во время пандемии COVID-19, управлять запасами или выступать в качестве финансового консультанта, поясняет Кейриваль.

«Наша работа в конечном счете показывает, что, если для таких целей используются большие языковые модели, люди должны направлять, проверять и редактировать свою работу», — заключает исследователь.

И пока исследователи не выяснят, как наделить большие языковые модели общим чувством рациональности, к ним следует относиться с осторожностью, особенно в приложениях, требующих принятия решений с высокими ставками.

Показать ещё новости
Радіо NV
X