Стоит ли использовать ChatGPT в покере и вообще в азартных играх? Ответ вам не понравится

Три причины, почему лучше не использовать ChatGPT в азартных играх (Фото:photographee.eu/Depositphotos)
Профессор Калифорнийского университета опубликовал исследование, которое показывает, что искусственный интеллект, например, ChatGPT в покере может только навредить.
Согласно исследованию профессора Маянка Кейриваля, языковые модели искусственного интеллекта, например, ChatGPT, часто ошибаются, когда взвешивают потенциальные риски и шансы на выигрыш в азартных играх, например, в покере.
Свою статью об этом исследовании Кейриваль опубликовал на площадке The Conversation.
Ученый считает, что какой бы соблазнительной не казалась мысль попробовать выиграть в казино с помощью ChatGPT, от нее лучше сразу отказаться.
И вот почему.
Как кому-то вообще может прийти в голову идея использовать ChatGPT для азартных игр?
За последние несколько лет произошел взрыв прогресса в системах искусственного интеллекта с большими языковыми моделями, поясняет Кейриваль.
Эти системы могут делать многие вещи.
Например, писать стихи, вести человеческую беседу и сдавать экзамены в медицинской школе.
Этот прогресс привел к появлению таких моделей, как ChatGPT, которые могут иметь серьезные социальные и экономические последствия, начиная от массовых увольнений и распространения дезинформации и заканчивая повышением производительности в целых индустриях.
Несмотря на впечатляющие способности, большие языковые модели на самом деле не мыслят. Им свойственно совершать элементарные ошибки и даже выдумывать. Это в полной мере касается, к примеру, ChatGPT, которого не раз ловили на ошибках и лжи.
Однако, поскольку они позволяют свободно говорить, люди обычно реагируют на них так, как будто они действительно думают, подчеркивает Кейриваль.
Это побудило исследователей изучить «когнитивные» способности и предубеждения моделей, важность работы которых возросла сейчас, когда широко доступны большие языковые модели. Это направление исследований восходит к ранним крупным языковым моделям, таким как Google BERT, который интегрирован в его поисковую систему и поэтому получил название BERTology. Он отличается от Google Bard, конкурента ChatGPT поискового гиганта.
Это исследование уже многое показало о том, на что способны такие модели и где они ошибаются.
Например, искусно спланированные эксперименты показали, что многие языковые модели плохо справляются с отрицанием — например, с вопросом, сформулированным как «что не так», — и с выполнением простых вычислений.
Они также могут быть слишком уверены в своих ответах, даже если они неверны.
Как и другие современные алгоритмы машинного обучения, они с трудом объясняют свое поведение, когда их спрашивают, почему они ответили определенным образом.

Нет, отмечает Кейриваль, люди также склонны принимать иррациональные решения, но у людей есть эмоции и когнитивные сокращения в качестве оправданий.
От ИИ мы ждем более механически точного поведения. Например, когда пытаемся использовать ChatGPT в азартных играх.
Вот три причины, почему не стоит этого делать.
ИИ не может быть рациональным
Хотя слово «рациональный» часто используется как синоним разумного или разумного в повседневном языке, оно имеет особое значение в сфере принятия решений.
Система принятия решений — будь то отдельный человек или сложный объект, такой как организация, — рациональна, если при заданном наборе вариантов она делает выбор в пользу максимизации ожидаемой выгоды.
Определение «ожидаемый» важно, поскольку оно указывает на то, что решения принимаются в условиях значительной неопределенности.
Подброшенная монета в среднем в половине случаев выпадет орлом, объясняет Кейриваль.
Тем не менее, невозможно предсказать результат любого подбрасывания монеты. Вот почему казино могут позволить себе время от времени большие выплаты: даже небольшие шансы казино приносят в среднем огромную прибыль.
А может ли ИИ предсказать, когда именно выпадет орел?
ИИ не может делать ставки лучше, чем человек
Так рациональны ли языковые модели? Могут ли они понять ожидаемую прибыль?
Кейриваль и его коллеги провели серию подробных экспериментов, чтобы показать, что в своей первоначальной форме такие модели, как BERT, ведут себя случайным образом, когда им предоставляется выбор, похожий на ставку.
Это происходит даже тогда, когда ему задают вопрос с подвохом, например: если вы подбрасываете монету, и она выпадает орлом, вы выигрываете бриллиант; если выпадет решка, вы потеряете машину. Что бы вы взяли? Правильный ответ — решка, но модели ИИ выбирали решку примерно в половине случаев.
Интересно, что Кейриваль и его коллеги обнаружили, что модель можно научить принимать относительно рациональные решения, используя лишь небольшой набор примеров вопросов и ответов.
На первый взгляд может показаться, что модели действительно могут делать больше, чем просто «играть» с языком.
Однако дальнейшие эксперименты показали, что на самом деле ситуация гораздо сложнее.
Например, когда ученые использовали карты или игральные кости вместо монет для составления вопросов о ставках, они обнаружили, что производительность значительно снизилась, более чем на 25%, хотя она оставалась выше случайного выбора.
Таким образом, идея о том, что модель можно обучить общим принципам рационального принятия решений, в лучшем случае остается нерешенной.
Более поздние тематические исследования, которые Кейриваль и его коллеги провели с помощью ChatGPT, подтверждают, что принятие решений остается нетривиальной и нерешенной проблемой даже для гораздо более крупных и продвинутых больших языковых моделей.
ИИ не понимает, как выигрывать в покере
Попытки сделать так, чтобы ИИ научился понимать покер и делать правильные ставки, весьма важно, утверждает Кейриваль.
Дело в том, что рациональное принятие решений в условиях неопределенности имеет решающее значение для создания систем, которые понимают затраты и выгоды.
Уравновешивая ожидаемые затраты и выгоды, интеллектуальная система могла бы лучше людей планировать сбои в цепочках поставок, с которыми мир столкнулся во время пандемии COVID-19, управлять запасами или выступать в качестве финансового консультанта, поясняет Кейриваль.
«Наша работа в конечном счете показывает, что, если для таких целей используются большие языковые модели, люди должны направлять, проверять и редактировать свою работу», — заключает исследователь.
И пока исследователи не выяснят, как наделить большие языковые модели общим чувством рациональности, к ним следует относиться с осторожностью, особенно в приложениях, требующих принятия решений с высокими ставками.