Google тимчасово вимикає можливість свого інструменту Gemini AI для створення фотографій людей після історичних помилок

Google тимчасово вимикає можливість свого інструменту Gemini AI для створення фотографій людей після історичних помилок

Автори зображення: Кензо Тріпойяр /Getty Images

Google заявляє, що тимчасово призупинив можливість Gemini, свого провідного набору моделей штучного інтелекту, генерувати зображення людей, поки він працює над оновленням технології для підвищення історичної точності результатів, які містять зображення людей.

в пошта На платформі соціальних мереж

«Поки ми це робимо, ми призупинимо створення фотографій людей і незабаром повторно випустимо покращену версію», — додала вона.

На початку цього місяця Google запустив свій інструмент для створення фотографій Gemini. Але приклади генерування непропорційних образів історичних людей знайшли свій шлях У соціальних мережах Останніми днями образи батьків-засновників США як індіанців, темношкірих чи азіатських американців викликали критику та навіть глузування.

Напишіть у пості на LinkedInвенчурний капіталіст із Парижа Майкл Джексон сьогодні приєднався до натовпу, назвавши штучний інтелект Google «безглуздою пародією на DEI». (DEI розшифровується як «Різноманітність, справедливість та залучення»).

в Опубліковано в X вчораGoogle підтвердив, що «знав», що штучний інтелект виробляє «помилки в деяких історичних зображеннях, що генерують зображення», додавши в заяві: «Ми негайно працюємо над покращенням цих типів зображень». Створення зображень Al із Близнюків подобається широкому колу людей. Загалом це добре, оскільки цим користуються люди в усьому світі. Але тут це не так».

Генеративні інструменти штучного інтелекту створюють результати на основі навчальних даних та інших параметрів, таких як ваги моделі.

Такі інструменти часто стикаються з критикою, оскільки вони створюють необ’єктивні результати у більш стереотипний спосіб – наприклад, Відверто сексуальні образи жінок Або відповідаючи на претензії Посадові ролі з високим статусом із зображеннями білих чоловіків.

READ  Витік скріншотів альфа-версії Horizon Multiplayer схожий на Fortnite

Попередній інструмент класифікації зображень штучного інтелекту, створений Google, викликав обурення в 2015 році, коли він неправильно класифікував темношкірих чоловіків як горил. Однак компанія пообіцяла вирішити проблему Провідний Повідомлено кілька років потому, «виправлення» було чистим обхідним шляхом: Google просто заблокував технологію розпізнавання горил взагалі.

You May Also Like

About the Author: Philbert Page

"Загальний ніндзя в соціальних мережах. Інтроверт. Творець. Шанувальник телебачення. Підприємець, що отримує нагороди. Веб-ботанік. Сертифікований читач"

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *