• Актуальнае
  • Медыяправа
  • Карыснае
  • Кірункі і кампаніі
  • Агляды і маніторынгі
  • Рэкамендацыі па бяспецы калег

    «Горкі ўрок». Ці сапраўды эвалюцыя штучнага інтэлекту небясьпечная

    У інтэрвію Радыё Свабода Ааронсан распавёў аб сіле і слабасьці ChatGPT, аб тым, ці атрымае ШІ сьвядомасьць і чаму важна ўмець адрозьніваць чалавечую і штучную гаворку.

    У канцы лістапада 2022 гады карыстачы інтэрнэту атрымалі доступ да Chat­G­PT — чат-боту кампаніі Ope­nAI.

    Створаны на аснове так званай «вялікай моўнай мадэлі» бот, з аднаго боку, здольны пісаць вершы, кампутарныя праграмы, капіяваць літаратурныя стылі розных аўтараў, рыхтаваць эсэ на практычна любую тэму, перакладаць на розныя мовы і падтрымліваць складную гутарку, з другога — нярэдка памыляецца у самых простых пытаньнях. Але гэта, як і іншыя падобныя сыстэмы штучнага інтэлекту (ШІ), ня цацка, а тэхналёгія, якая моцна зьменіць наш сьвет.

    Chat­G­PT, мабыць, першы штучны інтэлект, здольны прайсьці тэст Т’юрынга: калі ня ведаць загадзя, што маеш зносіны з ботам, яго рэплікі ў гутарцы можна прыняць за чалавечыя. Гэтую якасьць брытанскі матэматык Алан Т’юрынг прапанаваў у сваёй працы 1950 году лічыць крытэрам «думаючай машыны». Да штучных інтэлектаў з фантастычных раманаў, якія валодаюць асобай і сьвядомасьцю, яшчэ далёка, але цяпер і яны не здаюцца казкай.

    Спэцыяліст у галіне тэорыі вылічальных машын Скот Ааронсан лічыць, што дзякуючы разьвіцьцю Chat­G­PT і іншых аналягічных сыстэм сьвет апынуўся на парозе рэвалюцыйных перамен, але заключацца яны будуць не ў зьяўленьні робатаў з чалавечым узроўнем розуму, а ў новым узаемадзеяньні з інфармацыяй.

    Перамены, параўнальныя з тымі, якія адбыліся пасьля вынаходніцтва інтэрнэт-браўзэра, не абавязкова пойдуць чалавецтву толькі на карысьць. Сярод самых відавочных рызык выбуховага росту здольнасьцяў ШІ — зьяўленьне інструмэнтаў калясальнай магутнасьці для ашуканцаў і прапагандыстаў. Спэцыяльна для таго, каб ацаніць пагрозы, зьвязаныя з Chat­G­PT і іншымі ШІ, і прыдумаць спосабы змагацца зь імі, Скота Ааронсана запрасілі правесьці год у кампаніі Ope­nAI.

    Сьпячы мозг

    — Я баюся такіх выразаў, як «навуковы прарыў» ці «рэвалюцыя ў тэхналёгіях», такія рэчы адбываюцца вельмі рэдка, але…

    — Але ўсё-ткі адбываюцца. Калі посьпех вялікіх моўных мадэляў у апошнія пару гадоў — гэта не прарыў, то я ня ведаю, што можна назваць прарывам.

    — Ці ўбачым мы ў найбліжэйшы час сапраўдны, правільней сказаць, моцны штучны інтэлект, нешта, што валодае сьвядомасьцю?

    — Гэта, вядома, пытаньне вызначэньня. У пэўным сэнсе мы яго ўжо бачым. У нас ёсьць ШІ, які здольны больш-менш разумна весьці размову на любую тэму. Тое, чаго мы дабіліся, — а гэтага ніхто ня мог прадказаць яшчэ нейкіх 10 гадоў таму, — мы пабудавалі найвялікшага актора імправізацыі. Ён здольны адыграць любую ролю, ён адначасова ўсё і ніхто. Вы можаце папрасіць Chat­G­PT згуляць Чалавека-павука, і ён гэта зробіць, а потым вы перазагрузіце старонку ў браўзэры, і робат забудзе пра тое, кім ён быў, і будзе гатовы прымерыць на сябе іншую асобу.

    Але здольнасьць захоўваць адзіную асобу? Узаемадзейнічаць з фізычным сьветам? Ставіць і дасягаць мэты? Мець перакананьні, укаранёныя ў досьведзе? Нічога гэтага ў Chat­G­PT, вядома, няма. Але ў сэнсе вызначэньня Т’юрынга гэта ўжо «думаючая машына».

    БАЖ праводзіць апытанне аўдыторыі, каб быць карыснымі і цікавымі тым, хто з намі даўно, і тым, хто нас яшчэ не ведае.  Гэта дапаможа нам адаптаваць нашыя прадукты і кантэнт, удасканаліць іх і стаць карысным інструментам і плацдармам для развіцця беларускай незалежнай журналістыкі. Прайдзіце апытанне і дапамажыце нам стаць лепш!

    — Дарэчы, ці праводзіў хто-небудзь з Chat­G­PT клясычны тэст Т’юрынга?

    — Калі папраўдзе, я ня ведаю. Але ўсе гэтыя курсавыя, якія студэнты па ўсім сьвеце ствараюць з дапамогай бота і якія іх выкладчыкі ня могуць адрозьніць ад напісанага чалавекам тэксту, — гэта ж ужо ў нейкім сэнсе пасьпяховы тэст Т’юрынга.

    — Што наконт самасьвядомасьці? Ці змогуць вялікія моўныя мадэлі разьвіцца настолькі, што здабудуць яе? Ці гэта ў прынцыпе немагчыма, паводле аргумэнту кітайскага пакою?

    — Праблема са сьвядомасьцю ў тым, што пра яе складана разважаць эмпірычнаму. Вы ня можаце дасьведчаным шляхам высьветліць, валодае нешта сьвядомасьцю ці не, уласна, аргумэнт кітайскага пакою роўна гэта і азначае. Цяперашнія вялікія моўныя мадэлі сьвядомасьцю, на мой погляд, не валодаюць, таму што, як я згадаў раней, яны ня здольныя захоўваць адзіную асобу. Яны толькі рэагуюць на вонкавыя запыты.

    Вы можаце папрасіць робата расказаць пра яго адчуваньні, і ён нават можа вам адказаць, што яму «сумна», што яму «самотна», але гэта, безумоўна, пустыя словы. Вельмі важна разумець, што калі вы ня робіце запыт, у чат-боте нічога не адбываецца, ніякі код не выконваецца, паміж сэсіямі гэты мозг сьпіць, і ён ня памятае, што было раней, як герой фільму «Мэмэнта». Калі ў яго і ёсьць нейкая сьвядомасьць, то гэта сапраўды ня тая сьвядомасьць, якой валодаем мы, людзі.

    Але магчымасьці вялікіх моўных мадэляў будуць пашырацца, і адбудзецца гэта не калі-небудзь, а ўжо хутка. Зьявяцца сыстэмы, здольныя падтрымліваць стабільную асобу, якія валодаюць доўгатэрміновай памяцьцю, у тым ліку аб сабе. Мы ўжо бачым прагрэс у гэтым напрамку, напрыклад, BingChat можа заходзіць у інтэрнэт і самастойна шукаць інфармацыю. Хутка новыя робаты атрымаюць здольнасьць да самастойных дзеяньняў, у іх будзе ўсё больш і больш магчымасьцяў, і людзі прывыкнуць лічыць іх надзеленымі сьвядомасьцю, ня думаючы аб азначэньнях.

    Вядома, за ўсім гэтым застаецца складанае філязофскае пытаньне, ці можна ўявіць хоць нейкую задачу, здольнасьць вырашыць якую будзе азначаць наяўнасьць у машыны сьвядомасьці, ці сьвядомасьць — гэта атрыбут біялягічнай прыроды нашага мозгу? Напрыклад, Роджэр Пэнроўз лічыць, што сьвядомасьць зьвязана з фізычным уладкаваньнем нашага мозгу, з тымі квантавымі працэсамі, што ў ім адбываюцца.

    Магчыма, на пытаньне аб сьвядомасьці проста не існуе адказу.

    Цалкам размову чытайце ТУТ.

    Чытайце яшчэ:

    «Я бачыў кнігу не як нейкую сухую біяграфію, а гісторыяй чалавека». Гутарка з аўтарам першага выдання пра Ціханоўскую

    “Я уехала, чтобы приносить пользу Беларуси”. Ради чего Александра Богуславская прервала журналистскую карьеру

    Каханне на адлегласці: журналісты пра свае сямейныя стасункі, нягледзячы на мяжу

    Самыя важныя навіны і матэрыялы ў нашым Тэлеграм-канале — падпісвайцеся!
    @bajmedia
    Найбольш чытанае
    Акцэнты

    Как найти и удалить свои старые комментарии в Instagram, Telegram, YouTube, TikTok и «Вконтакте»

    12.02.2024
    Акцэнты

    «Юмор может работать как подорожник». Топ самых ярких сатирических проектов Беларуси

    12.12.2023
    Акцэнты

    «Ивлеева и Тодоренко умерли для меня». Интервью с одним из создателей «Орла и решки» Евгением Синельниковым

    Евгений Синельников — один из создателей известного украинского шоу о путешествиях «Орел и решка». Он много лет работал режиссером-постановщиком телепроекта и даже был ведущим девятого сезона. Когда началась война, Евгений с семьей жил в Буче, они пробыли под оккупацией несколько недель. После освобождения Киевской области режиссер вернулся в родной дом. Мы поговорили с ним о том, как сейчас устроена жизнь в Буче, что он чувствовал, когда российские солдаты пришли к нему домой, а еще об обиде на белорусов и о том, что такое делать национальный контент на YouTube.
    17.11.2023
    Кожны чацвер мы дасылаем на электронную пошту магчымасці (гранты, вакансіі, конкурсы, стыпендыі), анонсы мерапрыемстваў (лекцыі, дыскусіі, прэзентацыі), а таксама самыя важныя навіны і тэндэнцыі ў свеце медыя.
    Падпісваючыся на рассылку, вы згаджаецеся з Палітыкай канфідэнцыйнасці