Регулювання штучного інтелекту є проблемою з чотирьох аспектів

Регулювання штучного інтелекту є проблемою з чотирьох аспектів

Письменник-засновник ситосайт Financial Times про європейські стартапи

Лідери G7 обговорили багато глобальних проблем, пов’язаних із приготуванням устриць номі в Хіросімі минулих вихідних: війна в Україні, стійкість економіки, чиста енергія та продовольча безпека, серед іншого. Але вони також додали додатковий пункт у свою сумку доброї волі: просування надійного інклюзивного ШІ.

Визнаючи інноваційний потенціал штучного інтелекту, лідери стурбовані шкодою, яку він може завдати громадській безпеці та правам людини. запуск операції штучного інтелекту в Хіросімі, G7 доручила робочій групі проаналізувати вплив генеративних моделей ШІ, таких як ChatGPT, і провести дискусії для лідерів до кінця цього року.

Початкові виклики будуть найкращим способом ідентифікації штучного інтелекту, класифікації його ризиків і розробки відповідної відповіді. Чи краще залишити регулювання існуючим національним агентствам? Або технологія настільки важлива, що потребує нових міжнародних інституцій? Чи потрібен нам сучасний еквівалент Міжнародного агентства з атомної енергії, яке було засноване в 1957 році для сприяння мирному розвитку ядерних технологій і стримування їх військового використання?

Можна сперечатися, наскільки ефективно ООН виконала це завдання. Крім того, ядерна технологія включає масивні радіоактивні матеріали та інфраструктуру, які легко фізично виявити. З іншого боку, штучний інтелект відносно дешевий, невидимий, поширений і має необмежену кількість випадків використання. Принаймні, це являє собою чотиристоронній виклик, який потрібно вирішувати більш гнучкими способами.

Перший вимір – це дискримінація. Системи машинного навчання розроблені для того, щоб розрізняти та ідентифікувати викиди в шаблонах. Це добре для виявлення ракових клітин при рентгенологічних дослідженнях. Але це погана практика — використовувати системи «чорних скриньок», навчені на недосконалих наборах даних, для найму та звільнення працівників або для надання банківських позик. Bias in, bias out, як кажуть. Заборона цих систем у неприйнятно високих зонах ризику, як передбачає майбутній закон ЄС про штучний інтелект, є суто запобіжним підходом. Створення незалежних експертів-аудиторів може бути більш адаптивним підходом.

По-друге, дезінформація. Як минулого тижня академічний експерт Гері Маркус попередив Конгрес США, генеративний ШІ може поставити під загрозу саму демократію. Такі моделі можуть генерувати правдоподібну брехню та фальшивих людей з блискавичною швидкістю та в промислових масштабах.

Відповідальність за створення водяних знаків на вмісті та зменшення дезінформації має лежати на самих технологічних компаніях, подібно до боротьби зі спамом електронною поштою. Якщо цього не зробити, це лише посилить вимоги до більш радикального втручання. Цей прецедент міг бути створений у Китаї, де законопроект покладає відповідальність за неправильне використання моделей ШІ на продукт, а не на користувача.

По-третє, дезінтеграція. Ніхто не може точно передбачити економічний вплив штучного інтелекту в цілому. Але цілком певно, що це призведе до «депрофесіоналізації» сегментів білих комірців, сказала підприємець Вів’єн Мін у столичному ефірі FT Weekend.

Комп’ютерні програмісти широко використовують генеративний ШІ як інструмент для підвищення продуктивності. Голлівудські сценаристи, навпаки, можуть бути першою літерою багатьох професій, які бояться, що їхні базові навички стають автоматизованими. Ця заплутана історія не має простих рішень. Країнам доведеться по-своєму адаптуватися до викликів суспільства.

По-четверте, руйнування. Інтеграція штучного інтелекту в летальні автономні системи зброї (LAWS) або роботів-вбивць є жахливою перспективою. Принцип, згідно з яким люди завжди повинні залишатися в колі прийняття рішень, може бути встановлений і забезпечений лише міжнародними договорами. Те саме стосується дискусії про загальний штучний інтелект, (можливо, вигаданий) день, коли штучний інтелект перевершує людський у всіх сферах. Деякі активісти відкидають цей сценарій як відволікаючу фантазію. Але, звичайно, варто прислухатися до тих експертів, які попереджають про потенційні ризики для існування та закликають до міжнародної дослідницької співпраці.

READ  Продажі так званого "сірого" обладнання та електроніки в Україні за рік епідемії знизилися на 12% до 18 млрд грн - дослідження

Інші стверджують, що намагатися регулювати ШІ так само безглуздо, як молитися, щоб сонце ніколи не заходило. Закони розвиваються лише поступово, тоді як штучний інтелект розвивається експоненціально. Але Маркус каже, що його втішив двопартійний консенсус щодо дій у Конгресі США. Можливо, регулятори ЄС бояться встановлювати глобальні стандарти для ШІ, як це було п’ять років тому із захистом даних, а також публічно підтримують правила.

Лідери G7 повинні заохочувати конкуренцію за хороші ідеї. Тепер їм потрібно почати організаційну гонку до вершини, а не вести страхітливе ковзання до низу.

You May Also Like

About the Author: Monica Higgins

"Професійний вирішувач проблем. Тонко чарівний любитель бекону. Геймер. Завзятий алкогольний ботанік. Музичний трейлер"

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *