«60 Minutes» зробили досить неприємну заяву про чат-бота Google AI

«60 Minutes» зробили досить неприємну заяву про чат-бота Google AI

З тих пір, як OpenAI випустив у світ ChatGPT, ми бачили, як він залучає людей, яким ви не повірите. Деякі люди стверджують, що чат-боти мають пробуджений порядок денний. Сенатор США Кріс Мерфі написав у Твіттері, що ChatGPT «навчився» передовій хімії. Навіть досвідчені технічні журналісти писали історії про те, як це працює Чат-бот закохався в них. Схоже, що світ реагує на ШІ так само, як печерні люди, ймовірно, відреагували, коли вперше побачили вогонь: повним замішанням і незв’язним лепетом.

Один із найсвіжіших прикладів 60 хвилин, який виступив на рингу з новим епізодом, присвяченим інноваціям у штучному інтелекті, який вийшов у неділю на CBS. Епізод містив інтерв’ю з такими людьми, як Сундар Пічаї, генеральний директор Google, і містив сумнівний вміст Твердження про одну з великих мовних моделей компанії (LLM).

У цьому сегменті йдеться про аварійну поведінку, яка описує неочікуваний побічний ефект системи штучного інтелекту, який не обов’язково передбачався розробниками моделі. Ми вже бачили, як нова поведінка з’являється в інших недавніх проектах ШІ. Наприклад, дослідники нещодавно використовували ChatGPT для створення цифрових персон із цілями та досвідом у дослідженні, опублікованому в Інтернеті минулого тижня. Вони відзначають, що система виконує різні випадки поведінки, такі як обмін новою інформацією від одного персонажа до іншого і навіть формування стосунків один з одним — те, що автори спочатку не планували для системи.

Нова поведінка, безумовно, є вартою темою для обговорення в програмі новин. де є 60 хвилин Однак відео змінюється, коли ми дізнаємося про заяви про те, що чат-бот Google справді зміг навчити себе мови, яку він раніше не знав, після того, як його запитали цією мовою. «Наприклад, одна програма Google AI адаптувалася самостійно після того, як їй сказали зробити це мовою Бангладеш, якій її не навчили знати», — сказав у відео репортер CBS News Скотт Пеллі.

READ  Google намагається присоромити Apple за впровадження RCS за допомогою кампанії #getthemessage

Фахівці зі штучного інтелекту кажуть, що це повноцінний ступінь бакалавра. Робот не тільки не зміг вивчити іноземну мову, яку він «ніколи не навчався знати», але він також ніколи не навчив себе нових навичок. Весь ролик спонукав дослідників і експертів штучного інтелекту розкритикувати оманливе оформлення новин у Twitter.

«Я справді сподіваюся, що деякі журналісти переглянуть увесь сегмент @60Minute на Google Bard як приклад того, як *не* висвітлювати штучний інтелект», – сказала Мелані Мітчелл, дослідник ШІ та професор Інституту Санта-Фе, – написав він у твіттері.

“Припиніть думати про технології магічно! Штучний інтелект не може відповідати бенгальською мовою, якщо навчальні дані не були забруднені бенгальською мовою або навчені мовою, яка збігається з бенгальською, як-от ассамська, орія чи гінді”, – сказала пані. Алекс О. дослідник Массачусетського технологічного інституту, Додано в іншій публікації.

Варто зауважити 60 хвилин У ролику не було сказано, який саме ШІ вони використовували. Представник CBS сказав The Daily Beast, що цей сегмент був не обговоренням Bard, а окремою програмою про штучний інтелект. Однак причина, чому ця частина так засмучує цих експертів, полягає в тому, що вона ігнорує та грає з реальністю того, що насправді може зробити генеративний ШІ. Вона не може «навчити» себе мови, якщо не має до неї доступу. Це схоже на спробу навчити себе мандариною, але ви почули це лише після того, як хтось один раз запитав вас мандарин.

Зрештою, мова неймовірно складна — з нюансами та правилами, які вимагають неймовірного рівня контексту для розуміння та спілкування. Немає можливості навіть для найдосконалішого магістра права впоратися та вивчити все це за допомогою кількох підказок.

Крім того, програмне забезпечення AI, можливо, вже було навчено знати бенгальську мову, домінуючу мову Бангладеш. Маргарет Мітчелл (не має стосунків), дослідниця в лабораторії стартапів AT HuggingFace, а раніше в Google, пояснила це в Тема твіту Аргументуйте чому 60 хвилин Ймовірно, це була помилка.

Мітчелл зазначив, що Bard — нещодавно представлений загальнодоступний чат-бот Google — включає роботу з ранньої ітерації його моделі під назвою PaLM. Під час демонстрації 2022 року Google продемонстрував, що PaLM може спілкуватися та відповідати на підказки бенгальською мовою. в Папір за PaLM У таблиці даних виявилося, що модель фактично була навчена мові з приблизно 194 мільйонами символів бенгальського алфавіту.

Хоча ми не знаємо, що являла собою окрема таємнича програма штучного інтелекту, вона, ймовірно, спиралася на ту саму роботу PaLM, що пояснює присутність бенгальської мови в наборі даних.

Незрозуміло, чому Пічаї, генеральний директор Google, сів для інтерв’ю і дозволив цим звинуваченням продовжувати залишатися без заперечень. (Google не відповів на запити про коментарі.) З моменту виходу епізоду він мовчав, незважаючи на те, що експерти вказували на оманливі та неправдиві твердження, зроблені в кліпі. У Twitter Маргарет Мітчелл Пропозиція Причиною цього може бути те, що лідери Google не знають, як працюють їхні продукти, а також те, що це дозволяє поширювати погані повідомлення, щоб подолати поточний ажіотаж навколо генеративного ШІ.

“Я підозрюю [Google executives] Я буквально не розумію, як це працює, Мітчелл щебетати. “Те, що я написав вище, швидше за все, для них є новиною. І вони мотивовані не розуміти (ПОГЛЯДІТЬ В ОЧІ НА ЦЮ ТЕХНОЛОГІЮ!!)”.

Друга половина відео також може розглядатися як проблематична, оскільки Пічаї та Біллі обговорюють коротку історію, створену Бардом, яка «прозвучала дуже по-людськи», залишаючи двох чоловіків дещо враженими.

Правда в тому, що ці продукти не є магією. Вони не можуть бути «людьми», тому що вони не люди. Це текстові предиктори, подібні до тих, що є у вашому телефоні, навчені вигадувати найбільш імовірні слова та фрази після серії слів у фразах. Якщо сказати, що вони існують, це може дати їм рівень влади, який може бути неймовірно небезпечним.

READ  Трансляція The Legend of Heroes: Trails of Cold Steel - Northern War розпочнеться 8 січня 2023 року

Зрештою, користувачі можуть використовувати ці генеративні системи ШІ, щоб робити такі речі, як поширення дезінформації. Ми вже бачили, як це маніпулює зовнішністю людей і навіть їхніми голосами.

Навіть чат-бот сам по собі може завдати шкоди, якщо в кінцевому підсумку дає необ’єктивні результати – те, що ми вже бачили з такими, як ChatGPT і Bard. Знаючи про схильність цих чат-ботів до галюцинацій і фабрикації результатів, вони можуть поширювати дезінформацію серед користувачів, які нічого не підозрюють.

Це також підтверджують дослідження. Недавнє дослідження Опубліковано в Наукові доповіді Він виявив, що на людські відповіді на етичні питання можуть легко вплинути аргументи, висунуті ChatGPT, і навіть те, що користувачі сильно недооцінюють, наскільки на них впливають боти.

Оманливі твердження про 60 хвилин Насправді це лише симптом більшої потреби в цифровій грамотності в той час, коли вона нам найбільше потрібна. Багато експертів зі штучного інтелекту кажуть, що зараз, як ніколи, настав час, коли люди повинні знати, що ШІ може, а що ні. Ці основні факти про робототехніку також необхідно ефективно донести до широкої громадськості.

Це означає, що люди з найбільшими платформами та найгучнішими голосами (тобто засоби масової інформації, політики та генеральні директори Big Tech) несуть найбільшу відповідальність за забезпечення безпечнішого та більш освіченого майбутнього ШІ. Якщо ми цього не зробимо, ми можемо закінчитися, як печерні люди, згадані вище, граючи з магією вогню — і обпікаючись у процесі.

Примітка редактора: у попередній версії цієї історії говорилося, що ШІ, який обговорювався в сегменті 60 Minutes, був Bard, коли він був окремим ШІ Google.

You May Also Like

About the Author: Philbert Page

"Загальний ніндзя в соціальних мережах. Інтроверт. Творець. Шанувальник телебачення. Підприємець, що отримує нагороди. Веб-ботанік. Сертифікований читач"

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *