Глава Tesla Ілон Маск каже, що штучний інтелект створить ситуацію, коли не потрібна робота

Глава Tesla Ілон Маск каже, що штучний інтелект створить ситуацію, коли не потрібна робота
  • Розмовляючи з британським прем’єр-міністром Ріші Сунаком, технічний мільярдер Ілон Маск сказав, що штучний інтелект має потенціал стати «найбільш руйнівною силою в історії».
  • Маск неодноразово попереджав про загрози, які ШІ становить для людства, і нещодавно закликав призупинити розробку більш просунутого ШІ, ніж GPT-4 OpenAI.

Ілон Маск, генеральний директор Tesla, на саміті з безпеки штучного інтелекту 2023 у Блетчлі-парку в Блетчлі, Великобританія, у середу, 1 листопада 2023 року.

Кріс Джей Реткліфф | Блумберг | Getty Images

ЛОНДОН. Ілон Маск вважає, що штучний інтелект може зрештою забрати роботу в усіх.

Мільярдер, піонер технологій, який володіє Tesla, SpaceX,

«У нас вперше буде щось розумніше, ніж найрозумніша людина», — сказав Маск на заході, що відбувся в Ланкастер Хаус, офіційній резиденції уряду Великобританії.

«Важко точно сказати, яким буде цей момент, але настане момент, коли робота більше не потрібна», — продовжив Маск, виступаючи разом із прем’єр-міністром Великобританії Ріші Сунаком. “Ви можете мати роботу, якщо хочете мати роботу для особистого задоволення. Але штучний інтелект зможе зробити все”.

«Я не знаю, комфортно від цього людям чи некомфортно», — пожартував Маск, чим розсміялися глядачі.

“Якщо ви хочете мати чарівного джина, він виконає будь-яке бажання, і немає обмежень. У вас немає цих трьох бажань, обмеження яких є нісенітницею, вони хороші і погані водночас. Одне з виклики в майбутньому полягатимуть у тому, як досягти того, щоб ми знайшли сенс життя».

Маск неодноразово попереджав про загрози, які створює ШІ для людства, одного разу сказавши, що він може бути небезпечнішим за ядерну зброю. Він був одним із кількох технологічних лідерів, які закликали призупинити розробку штучного інтелекту, більш прогресивного, ніж GPT-4 OpenAI, у широко цитованому відкритому листі, опублікованому на початку цього року.

READ  Пік COVID у Китаї триватиме 2-3 місяці, потім вдарить по сільській місцевості – експерт

Інші технологічні лідери не погоджуються, включаючи генерального директора Palantir Алекса Карпа. Виступаючи на BBC Radio в червні, Карп сказав, що бачить, що «багато людей, які просять призупинити, просять призупинити, тому що у них немає продукту».

Коментарі Маска в четвер відбулися після завершення історичного саміту в Блетчлі-Парку, Англія, де світові лідери погодилися з глобальною заявою щодо штучного інтелекту, яка побачила, як вони знайшли спільну мову щодо ризиків, які ця технологія становить для людства.

Технологічні експерти та політичні лідери використовували саміт, щоб попередити про екзистенціальні загрози, які створює штучний інтелект, зосередившись на деяких потенційних сценаріях кінця світу, які можуть сформуватися з винаходом гіпотетичного суперінтелекту.

Під час саміту Сполучені Штати та Китай, дві країни, які найбільше хвилюють цю технологію, погодилися знайти глобальний консенсус щодо того, як вирішити деякі з найскладніших питань щодо штучного інтелекту, включаючи те, як його безпечно розвивати та регулювати.

You May Also Like

About the Author: Sterling Clem

"Зомбі-євангеліст. Мислитель. Завзятий творець. Інтернет-фанат, що отримує нагороди. Невиліковний фанат".

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *