Чи варто використовувати ChatGPT у покері та взагалі в азартних іграх? Відповідь вам не сподобається

Три причини, чому краще не використовувати ChatGPT в азартних іграх (Фото:photographee.eu/Depositphotos)
Професор Каліфорнійського університету опублікував дослідження, яке показує, що штучний інтелект, наприклад, ChatGPT у покері може тільки нашкодити.
Згідно з дослідженням професора Маянка Кейріваля, мовні моделі штучного інтелекту, наприклад ChatGPT, часто помиляються, коли зважують потенційні ризики та шанси на виграш в азартних іграх, наприклад, у покері.
Свою статтю про це дослідження Кейріваль опублікував на майданчику The Conversation.
Вчений вважає, що хай якою б спокусливою здавалася думка спробувати виграти в казино за допомогою ChatGPT, від неї краще одразу відмовитись.
І ось чому.
Як комусь взагалі може спасти на думку ідея використовувати ChatGPT для азартних ігор?
За останні кілька років стався вибух прогресу в системах штучного інтелекту з великими мовними моделями, пояснює Кейріваль.
Ці системи можуть робити багато речей.
Наприклад, писати вірші, вести людську розмову та складати іспити у медичній школі.
Цей прогрес призвів до появи таких моделей, як ChatGPT, які можуть мати серйозні соціальні та економічні наслідки, починаючи від масових звільнень і поширення дезінформації та закінчуючи підвищенням продуктивності у цілих індустріях.
Попри вражаючі здібності, великі мовні моделі насправді не мислять. Їм властиво робити елементарні помилки і навіть вигадувати. Це повною мірою стосується, наприклад, ChatGPT, якого не раз ловили на помилках і брехні.
Однак, оскільки вони дозволяють вільно говорити, люди зазвичай реагують на них так, ніби вони справді думають, наголошує Кейріваль.
Це спонукало дослідників вивчити «когнітивні» здібності та упередження моделей, важливість роботи яких зросла зараз, коли широко доступні великі мовні моделі. Цей напрям досліджень походить від ранніх великих мовних моделей, таких як Google BERT, який інтегрований у його пошукову систему і тому отримав назву BERTology. Він відрізняється від Google Bard, конкурента ChatGPT пошукового гіганта.
Це дослідження вже багато показало про те, на що здатні такі моделі і де вони помиляються.
Наприклад, майстерно сплановані експерименти показали, що багато мовних моделей погано справляються із запереченням — наприклад, із питанням, сформульованим як «що не так», — і з виконанням простих обчислень.
Вони також можуть бути надто впевнені у своїх відповідях, навіть якщо вони помилкові.
Як і інші сучасні алгоритми машинного навчання, вони важко пояснюють свою поведінку, коли їх запитують, чому вони відповіли певним чином.
Ні, зазначає Кейріваль, люди також схильні приймати ірраціональні рішення, але у людей є емоції та когнітивні скорочення у ролі виправдань.
Від ШІ ми чекаємо більш механічно точної поведінки. Наприклад, коли намагаємось використовувати ChatGPT в азартних іграх.
Ось три причини, чому не варто цього робити.
ШІ не може бути раціональним

Хоча слово «раціональний» часто використовується як синонім розумного чи розумного у повсякденній мові, воно має особливе значення у сфері прийняття рішень.
Система прийняття рішень — чи це окрема людина чи складний об'єкт, такий як організація, — раціональна, якщо в разі заданого набору варіантів вона робить вибір на користь максимізації очікуваної вигоди.
Визначення «очікуваний» важливо, оскільки воно вказує на те, що рішення приймаються в умовах значної невизначеності.
Підкинута монета в середньому у половині випадків випаде орлом, пояснює Кейріваль.
Проте неможливо передбачити результат будь-якого підкидання монети. Ось чому казино можуть дозволити собі іноді великі виплати: навіть невеликі шанси казино приносять у середньому величезний прибуток.
А чи може ШІ передбачити, коли саме випаде орел?
ШІ не може робити ставки краще, ніж людина
Тож чи раціональні мовні моделі? Чи можуть вони зрозуміти очікуваний прибуток?
Кейріваль та його колеги провели серію докладних експериментів, щоб показати, що у своїй первісній формі такі моделі, як BERT, поводяться випадково, коли їм надається вибір, схожий на ставку.
Це відбувається навіть тоді, коли йому ставлять питання з каверзою, наприклад: якщо ви підкидаєте монету, і вона випадає орлом, ви виграєте діамант; якщо випаде решка, ви втратите машину. Що б ви взяли? Правильна відповідь — решка, але моделі ШІ вибирали решку приблизно в половині випадків.
Цікаво, що Кейріваль та його колеги виявили, що модель можна навчити приймати відносно раціональні рішення, використовуючи лише невеликий набір прикладів запитань і відповідей.
На перший погляд може здатися, що моделі справді можуть робити більше, ніж просто «грати» з мовою.
Однак подальші експерименти показали, що насправді ситуація набагато складніша.
Наприклад, коли вчені використовували карти або гральні кубики замість монет для складання питань про ставки, вони виявили, що продуктивність значно знизилася, більш ніж на 25%, хоча вона залишалася вищою за випадковий вибір.
Отже, ідея у тому, що модель можна навчити загальних принципів раціонального прийняття рішень, у найкращому разі залишається невирішеною.
Пізніші тематичні дослідження, які Кейріваль та його колеги провели за допомогою ChatGPT, підтверджують, що ухвалення рішень залишається нетривіальною та невирішеною проблемою навіть для набагато більших і більш просунутих великих мовних моделей.
ШІ не розуміє, як вигравати у покері
Спроби зробити так, щоб ШІ навчився розуміти покер і робити правильні ставки, дуже важливо, стверджує Кейріваль.
Річ у тім, що раціональне ухвалення рішень в умовах невизначеності має вирішальне значення для створення систем, які розуміють витрати та вигоди.
Врівноважуючи очікувані витрати та вигоди, інтелектуальна система могла б краще за людей планувати збої в ланцюжках постачання, з якими світ зіткнувся під час пандемії COVID-19, керувати запасами або виступати фінансовим консультантом, пояснює Кейріваль.
«Наша робота в кінцевому підсумку показує, що, якщо для таких цілей використовуються великі мовні моделі, люди повинні спрямовувати, перевіряти та редагувати свою роботу», — підсумовує дослідник.
І доки дослідники не з’ясують, як наділити великі мовні моделі загальним почуттям раціональності, до них слід ставитися з обережністю, особливо у застосунках, які вимагають прийняття рішень із високими ставками.