OpenAI виявив, що російські та китайські пропагандистські кампанії використовували його технологію

САН-ФРАНЦИСКО — OpenAI, виробник ChatGPT, заявив у четвер, що виявив групи з Росії, Китаю, Ірану та Ізраїлю, які використовували його технологію для спроби вплинути на політичний дискурс у всьому світі, підкреслюючи занепокоєння тим, що генеративний ШІ полегшує державним установам керувати пропагандою. Виборчі кампанії з наближенням президентських виборів 2024 року.

OpenAI видалив облікові записи, пов’язані з відомими пропагандистськими операціями в Росії, Китаї та Ірані; Ізраїльська фірма, яка проводить політичні кампанії; і раніше невідома група з Росії, яку дослідники компанії охрестили «поганою граматикою». Групи використовували технологію OpenAI для написання публікацій, перекладу їх на різні мови та створення програмного забезпечення, яке допомагає їм автоматично публікувати публікації в соціальних мережах.

Жодна з цих груп не змогла привернути багато уваги; Пов’язані з ними облікові записи соціальних мереж охопили кілька користувачів і мали «Вони лише жменька послідовників», — сказав Бен Німмо, головний дослідник групи розвідки та розслідувань OpenAI. Проте звіт OpenAI показує, що прихильники, які роками були активними в соціальних мережах, використовують технологію ШІ для покращення своїх кампаній.

«Ми бачили, як вони генерували текст більшого розміру та з меншою кількістю помилок, ніж традиційно, — сказав Німмо, який раніше працював над операціями відстеження впливу Meta, на брифінгу з журналістами. Німмо сказав, що можливо, інші групи все ще використовують інструменти OpenAI без відома компанії.

«Це не час для заспокоєння. Історія показує, що операції впливу, які роками нікуди не дійшли, можуть раптово спалахнути, якщо їх ніхто не шукає.

Уряди, політичні партії та групи активістів роками використовували соціальні медіа, щоб намагатися вплинути на політику. Після занепокоєння щодо впливу Росії на президентські вибори 2016 року соціальні медіа-платформи почали приділяти більше уваги тому, як вони можуть використовувати свої позиції для впливу на виборців. Компанії, як правило, забороняють урядам і політичним групам приховувати скоординовані зусилля з метою впливу на користувачів, а політична реклама повинна розкривати, хто за неї заплатив.

READ  Бразильський кінь Карамело, який застряг на даху через повінь, був врятований після шоку нації

Оскільки інструменти штучного інтелекту, які можуть генерувати реалістичні тексти, зображення та навіть відео, стають все більш доступними, дослідники дезінформації висловлюють занепокоєння, що стане важче виявляти неправдиву інформацію або приховані операції впливу в Інтернеті та реагувати на них. Сотні мільйонів людей голосують на виборах по всьому світу цього року, і дипфейки, створені штучним інтелектом, уже набули популярності.

OpenAI, Google та інші компанії зі штучного інтелекту працюють над технологією виявлення дипфейків, створених за допомогою їхніх власних інструментів, але ця технологія ще не доведена. Деякі експерти зі штучного інтелекту вважають, що детектори deepfeke ніколи не будуть повністю ефективними.

Раніше цього року група, пов’язана з Комуністичною партією Китаю, опублікувала згенерований штучним інтелектом аудіозапис кандидата на виборах у Тайвані, який нібито підтримує іншого кандидата. Однак політик, засновник Foxconn Террі Гоу, не підтримав іншого політика.

У січні виборці на первинних виборах у Нью-Гемпширі отримали автоматичний дзвінок, нібито від президента Байдена, але швидко з’ясувалося, що він працює за допомогою штучного інтелекту. Минулого тижня демократичного активіста, який заявив, що йому доручили здійснити автоматичний дзвінок, було висунуто звинувачення у придушенні виборців і видаванні себе за кандидата.

У звіті OpenAI детально описано, як п’ять груп використовували технологію компанії у своїх спробах здійснити операції впливу. Раніше відома група Spamoflage з Китаю використовувала технологію OpenAI для дослідження активності в соціальних мережах і написання повідомлень китайською, корейською, японською та англійською мовами, повідомила компанія. Іранська група, відома як International Virtual Media Consortium, також використовувала технологію OpenAI для створення статей, які вона публікувала на своєму сайті.

Раніше невідома група Bad Grammar використовувала технологію OpenAI, щоб створити програмне забезпечення, яке може автоматично публікувати повідомлення в додатку для обміну повідомленнями Telegram. Bad Grammar потім використовував технологію OpenAI для створення публікацій і У коментарях російською та англійською мовами йдеться про те, що Сполучені Штати не повинні підтримувати Україну, йдеться у повідомленні.

READ  Вантажне судно затрималося в Суецькому каналі на п'яту добу після спроб його звільнення

У звіті також виявлено, що ізраїльська фірма, що займається політичними кампаніями під назвою Stoic, використовувала OpenAI для створення проізраїльських повідомлень про війну в Газі та направлення їх людям у Канаді, Сполучених Штатах та Ізраїлі, повідомляє OpenAI. У середу власник Facebook Meta також оприлюднив дії Stoic, заявивши, що він видалив 510 облікових записів Facebook і 32 акаунти Instagram, які використовувалися групою. У компанії повідомили журналістам, що деякі акаунти були зламані, а інші належали фейковим людям.

Облікові записи, про які йде мова, часто коментували сторінки відомих осіб або медіаорганізацій, видаючи себе за проізраїльських американських студентів коледжів, афроамериканців та інших. Мета сказав, що коментарі підтримали ізраїльських військових і попередили канадців, що «радикальний іслам» загрожує тамтешнім ліберальним цінностям.

Штучний інтелект зіграв певну роль у створенні деяких коментарів, які здалися справжнім користувачам Facebook дивними та вирваними з контексту. Компанія заявила, що операція була поганою, залучивши лише близько 2600 законних підписників.

Мета діяла після Лабораторії цифрових криміналістичних досліджень Atlantic Council Відкрийте для себе Мережа на X

Протягом останнього року дослідники дезінформації припустили, що чат-боти на базі штучного інтелекту можна використовувати для довгих, детальних розмов з конкретними людьми в Інтернеті, намагаючись вплинути на них у певному напрямку. Інструменти штучного інтелекту також можуть отримувати великі обсяги даних про людей і адаптувати повідомлення безпосередньо до них.

За словами Німмо, OpenAI не знайшов жодного з таких складніших застосувань ШІ. Він додав: «Це еволюція, а не революція». «Ніщо з цього не означає, що ми можемо не побачити цього в майбутньому».

Джозеф Мейн зробив внесок у цей звіт.

You May Also Like

About the Author: Sterling Clem

"Зомбі-євангеліст. Мислитель. Завзятий творець. Інтернет-фанат, що отримує нагороди. Невиліковний фанат".

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *