«Горкі ўрок». Ці сапраўды эвалюцыя штучнага інтэлекту небясьпечная
У інтэрвію Радыё Свабода Ааронсан распавёў аб сіле і слабасьці ChatGPT, аб тым, ці атрымае ШІ сьвядомасьць і чаму важна ўмець адрозьніваць чалавечую і штучную гаворку.
У канцы лістапада 2022 гады карыстачы інтэрнэту атрымалі доступ да ChatGPT — чат-боту кампаніі OpenAI.
Створаны на аснове так званай «вялікай моўнай мадэлі» бот, з аднаго боку, здольны пісаць вершы, кампутарныя праграмы, капіяваць літаратурныя стылі розных аўтараў, рыхтаваць эсэ на практычна любую тэму, перакладаць на розныя мовы і падтрымліваць складную гутарку, з другога — нярэдка памыляецца у самых простых пытаньнях. Але гэта, як і іншыя падобныя сыстэмы штучнага інтэлекту (ШІ), ня цацка, а тэхналёгія, якая моцна зьменіць наш сьвет.
ChatGPT, мабыць, першы штучны інтэлект, здольны прайсьці тэст Т’юрынга: калі ня ведаць загадзя, што маеш зносіны з ботам, яго рэплікі ў гутарцы можна прыняць за чалавечыя. Гэтую якасьць брытанскі матэматык Алан Т’юрынг прапанаваў у сваёй працы 1950 году лічыць крытэрам «думаючай машыны». Да штучных інтэлектаў з фантастычных раманаў, якія валодаюць асобай і сьвядомасьцю, яшчэ далёка, але цяпер і яны не здаюцца казкай.
Спэцыяліст у галіне тэорыі вылічальных машын Скот Ааронсан лічыць, што дзякуючы разьвіцьцю ChatGPT і іншых аналягічных сыстэм сьвет апынуўся на парозе рэвалюцыйных перамен, але заключацца яны будуць не ў зьяўленьні робатаў з чалавечым узроўнем розуму, а ў новым узаемадзеяньні з інфармацыяй.
Перамены, параўнальныя з тымі, якія адбыліся пасьля вынаходніцтва інтэрнэт-браўзэра, не абавязкова пойдуць чалавецтву толькі на карысьць. Сярод самых відавочных рызык выбуховага росту здольнасьцяў ШІ — зьяўленьне інструмэнтаў калясальнай магутнасьці для ашуканцаў і прапагандыстаў. Спэцыяльна для таго, каб ацаніць пагрозы, зьвязаныя з ChatGPT і іншымі ШІ, і прыдумаць спосабы змагацца зь імі, Скота Ааронсана запрасілі правесьці год у кампаніі OpenAI.
Сьпячы мозг
— Я баюся такіх выразаў, як «навуковы прарыў» ці «рэвалюцыя ў тэхналёгіях», такія рэчы адбываюцца вельмі рэдка, але…
— Але ўсё-ткі адбываюцца. Калі посьпех вялікіх моўных мадэляў у апошнія пару гадоў — гэта не прарыў, то я ня ведаю, што можна назваць прарывам.
— Ці ўбачым мы ў найбліжэйшы час сапраўдны, правільней сказаць, моцны штучны інтэлект, нешта, што валодае сьвядомасьцю?
— Гэта, вядома, пытаньне вызначэньня. У пэўным сэнсе мы яго ўжо бачым. У нас ёсьць ШІ, які здольны больш-менш разумна весьці размову на любую тэму. Тое, чаго мы дабіліся, — а гэтага ніхто ня мог прадказаць яшчэ нейкіх 10 гадоў таму, — мы пабудавалі найвялікшага актора імправізацыі. Ён здольны адыграць любую ролю, ён адначасова ўсё і ніхто. Вы можаце папрасіць ChatGPT згуляць Чалавека-павука, і ён гэта зробіць, а потым вы перазагрузіце старонку ў браўзэры, і робат забудзе пра тое, кім ён быў, і будзе гатовы прымерыць на сябе іншую асобу.
Але здольнасьць захоўваць адзіную асобу? Узаемадзейнічаць з фізычным сьветам? Ставіць і дасягаць мэты? Мець перакананьні, укаранёныя ў досьведзе? Нічога гэтага ў ChatGPT, вядома, няма. Але ў сэнсе вызначэньня Т’юрынга гэта ўжо «думаючая машына».
БАЖ праводзіць апытанне аўдыторыі, каб быць карыснымі і цікавымі тым, хто з намі даўно, і тым, хто нас яшчэ не ведае. Гэта дапаможа нам адаптаваць нашыя прадукты і кантэнт, удасканаліць іх і стаць карысным інструментам і плацдармам для развіцця беларускай незалежнай журналістыкі. Прайдзіце апытанне і дапамажыце нам стаць лепш!
— Дарэчы, ці праводзіў хто-небудзь з ChatGPT клясычны тэст Т’юрынга?
— Калі папраўдзе, я ня ведаю. Але ўсе гэтыя курсавыя, якія студэнты па ўсім сьвеце ствараюць з дапамогай бота і якія іх выкладчыкі ня могуць адрозьніць ад напісанага чалавекам тэксту, — гэта ж ужо ў нейкім сэнсе пасьпяховы тэст Т’юрынга.
— Што наконт самасьвядомасьці? Ці змогуць вялікія моўныя мадэлі разьвіцца настолькі, што здабудуць яе? Ці гэта ў прынцыпе немагчыма, паводле аргумэнту кітайскага пакою?
— Праблема са сьвядомасьцю ў тым, што пра яе складана разважаць эмпірычнаму. Вы ня можаце дасьведчаным шляхам высьветліць, валодае нешта сьвядомасьцю ці не, уласна, аргумэнт кітайскага пакою роўна гэта і азначае. Цяперашнія вялікія моўныя мадэлі сьвядомасьцю, на мой погляд, не валодаюць, таму што, як я згадаў раней, яны ня здольныя захоўваць адзіную асобу. Яны толькі рэагуюць на вонкавыя запыты.
Вы можаце папрасіць робата расказаць пра яго адчуваньні, і ён нават можа вам адказаць, што яму «сумна», што яму «самотна», але гэта, безумоўна, пустыя словы. Вельмі важна разумець, што калі вы ня робіце запыт, у чат-боте нічога не адбываецца, ніякі код не выконваецца, паміж сэсіямі гэты мозг сьпіць, і ён ня памятае, што было раней, як герой фільму «Мэмэнта». Калі ў яго і ёсьць нейкая сьвядомасьць, то гэта сапраўды ня тая сьвядомасьць, якой валодаем мы, людзі.
Але магчымасьці вялікіх моўных мадэляў будуць пашырацца, і адбудзецца гэта не калі-небудзь, а ўжо хутка. Зьявяцца сыстэмы, здольныя падтрымліваць стабільную асобу, якія валодаюць доўгатэрміновай памяцьцю, у тым ліку аб сабе. Мы ўжо бачым прагрэс у гэтым напрамку, напрыклад, BingChat можа заходзіць у інтэрнэт і самастойна шукаць інфармацыю. Хутка новыя робаты атрымаюць здольнасьць да самастойных дзеяньняў, у іх будзе ўсё больш і больш магчымасьцяў, і людзі прывыкнуць лічыць іх надзеленымі сьвядомасьцю, ня думаючы аб азначэньнях.
Вядома, за ўсім гэтым застаецца складанае філязофскае пытаньне, ці можна ўявіць хоць нейкую задачу, здольнасьць вырашыць якую будзе азначаць наяўнасьць у машыны сьвядомасьці, ці сьвядомасьць — гэта атрыбут біялягічнай прыроды нашага мозгу? Напрыклад, Роджэр Пэнроўз лічыць, што сьвядомасьць зьвязана з фізычным уладкаваньнем нашага мозгу, з тымі квантавымі працэсамі, што ў ім адбываюцца.
Магчыма, на пытаньне аб сьвядомасьці проста не існуе адказу.
Цалкам размову чытайце ТУТ.
Чытайце яшчэ:
«Я бачыў кнігу не як нейкую сухую біяграфію, а гісторыяй чалавека». Гутарка з аўтарам першага выдання пра Ціханоўскую
“Я уехала, чтобы приносить пользу Беларуси”. Ради чего Александра Богуславская прервала журналистскую карьеру
Каханне на адлегласці: журналісты пра свае сямейныя стасункі, нягледзячы на мяжу