🗞 Новият брой на Капитал е онлайн >>

Предизвикателствa пред ИИ регулациите

Създаването на глобална агенция за надзор върху изкуствения интелект ще бъде толкова сложно, колкото и самата технология

Наднационалните органи често започват скромно. Международната организация за гражданска авиация (ICAO), създадена през 1944 г., води десетилетни дискусии, преди да започне да определя правила за въздушния трафик. През 1952 г. Европейската организация за ядрени изследвания CERN започва работа в неизползвани помещения на Копенхагенския университет. А до 1979 г. Международната агенция за атомна енергия (МААЕ), която следи ядрените централи по света, е базирана в хотел във Виена.

Тези три организации, всяка от които е еманация на различен подход при управлението на дадена мощна технология, в момента са предпочитаните модели, на базата на които може да се създаде нов глобален субект. ICAO основно се занимава с формулирането на стандарти, CERN е изследователска структура, докато МААЕ е ядреното "куче пазач". През следващата година правителствата по света се очаква да решат какъв глобален орган биха искали да регулира друга технология - изкуствения интелект (ИИ).

Дискусията на тема ИИ често предполага три вида рискове. Софтуер, "задвижван" от изкуствен интелект, който, да кажем, интерпретира медицински изображения, може да не се окаже напълно точен. Големите езикови модели (LLM), които "захранват" генеративни ИИ услуги, като например ChatGPT, може да са склонни към предразсъдъци или пристрастия. А някои се опасяват, че най-мощните "гранични модели" може да бъдат използвани за създаване на кибероръжия или патогени и биха могли да доведат до раждането на "общ изкуствен интелект" със свръхчовешки способности, който дори може да застраши оцеляването на човечеството.

Националните законодателства може и да са в състояние да обхванат по-простите ИИ приложения и LLM, но граничните модели може би ще изискват формулиране на глобални правила и международен орган, който да следи за изпълнението им. Например Microsoft се застъпва за агенция, подобна на ICAO; OpenAI призова за създаване на "МААЕ за суперинтелигентност"; а много изследователи в областта на ИИ са запалени по идеята за организация, подобна на CERN. Компромисен вариант би бил да се създаде нещо подобно на Междуправителствения панел по изменението на климата, който се грижи за това светът да е в крак с изследванията на тема глобално затопляне и разработва начини за измерване на въздействието му. Председателят на Европейската комисия Урсула фон дер Лайен подкрепя идеята, както и група ръководители на технологични компании.

И все пак това едва ли ще е последното изявление по темата. Международният панел за безопасност на ИИ, както някои го наричат, може да доведе до създаването на други глобални организации. Въз основа на изследвания за международните институции, които се занимават с други значими технологии, авторите на скорошна научна публикация си представят изграждането на цяла мрежа от структури. Те варират от "Проект за безопасност на ИИ", който да проучва рисковете, до "Комисия за граничен ИИ", който да търси консенсус около критично важните въпроси. Както казва Маргарет Леви от Станфордския университет, която е един от авторите на публикацията: "Една-единствена институция не може да се справи с всичко." Така че очаквайте да трябва да учите значението на още много акроними.

2023, The Economist Newspaper Limited. All rights reserved

Все още няма коментари
Нов коментар