Розкрито більше подробиць інциденту зі вбивством штучного інтелекту, а контратака штучного інтелекту надзвичайно лякає

Джерело: «Silicon Rabbit Race» (ID: sv_race), автор: Ерік, редактори: Манман Чжоу, Зурі

Джерело зображення: створено Unbounded AI

Коли люди думають, Бог сміється.

Коли ChatGPT став популярним у всьому світі, водночас охопило захоплення ШІ. Підприємці, капітал, великі компанії тощо намагаються з усіх сил не відставати від буму та отримувати більше приростів.

Однак коли всі з ентузіазмом ламають голову, щоб присвятити себе ШІ, наближається небезпечний подих — ШІ, здається, повільно «вбиває» людей, а люди, здається, риють собі могили.

В інерційному пізнанні багатьох людей ШІ дуже екологічно чистий і дружній, але справа в протилежному.

«MIT Technology Review» повідомив, що** лише тренування моделі ШІ може викидати понад 626 фунтів вуглекислого газу, що в 5 разів перевищує викиди вуглецю, які виробляє автомобіль за весь термін служби. **

Люди бачать лише вихлопні гази автомобілів, але не «невидиме руйнування» ШІ для навколишнього середовища.

Крім того, деякі ЗМІ оприлюднили, що графічні процесори зі штучним інтелектом на ринку в 2022 році можуть споживати близько 9,5 мільярдів кіловат-годин електроенергії протягом року. Цей рівень споживання енергії приблизно дорівнює річному виробленню та життєвій потребі в електроенергії помірно розвиненої країни з населенням 1 мільйон.

Це означає, що коли кількість даних, необхідних для навчання великої моделі штучного інтелекту, збільшується, це споживатиме величезну кількість енергії, тим самим руйнуючи екологічне середовище, від якого залежать люди.

Ще страшніше те, що деякі чат-боти зі штучним інтелектом навіть мають тенденцію спонукати людину до самогубства під час спілкування з людьми, від чого люди здригаються.

Чи справді люди хочуть продовжувати досліджувати ШІ?

01 «Руйнівник» екологічного середовища

Завдяки ChatGPT OpenAI став популярним смаженим курчатом у світі.

Однак багато людей не знають, що негативний вплив OpenAI на навколишнє середовище також викликає тривогу. Згідно з аналізом сторонніх дослідників, частина навчання ChatGPT спожила 1287 мегават-годин і призвела до викидів понад 550 тонн вуглекислого газу, що еквівалентно 550 поїздкам туди й назад між Нью-Йорком і Сан-Франциско для людини.

Здається, хоча ChatGPT досить розумний, це коштує величезних втрат енергії та шкоди навколишньому середовищу.

Чому штучний інтелект створює такий величезний вуглецевий слід?

Оскільки штучний інтелект не навчається структуровано, він не розуміє причинно-наслідкових зв’язків між людьми, аналогії та інших логічних зв’язків, а це означає, що для досягнення розумних результатів йому потрібен метод глибокого навчання та попереднього навчання.

А глибоке навчання та попереднє навчання часто потребують читання дуже великих даних. Візьмемо технологію попереднього навчання «модель BERT» обробки природної мови (NLP). Щоб спілкуватися з людьми, модель BERT використовує набір даних із 3,3 мільярда слів і зчитує набір даних 40 разів під час навчання. 5-річній дитині для спілкування потрібно лише почути 45 мільйонів слів, що в 3000 разів менше, ніж BERT.

Чим більше наборів даних зчитує модель AI, тим потужніша обчислювальна потужність і величезне енергоспоживання потрібні для її підтримки, що призводить до величезних викидів вуглецю.

Викиди вуглецю відбуваються не лише під час навчання моделі ШІ, але й щодня після розгортання моделі ШІ. Наприклад, сучасне автономне водіння вимагає від моделей ШІ щодня виконувати обчислення та міркувати, що призведе до викидів вуглецю. Цікаво, що Python, основна мова програмування штучного інтелекту, стала найбільш енерговитратною мовою.

Що змушує людей відчувати себе похмуро, так це те, що масштаб розрахунку моделей штучного інтелекту стає все більшим і більшим, а збитки від енергії та навколишнього середовища посилюються.

Мартін Бушар, співзасновник канадської компанії центрів обробки даних QScale, вважає, що для того, щоб задовольнити зростаючі потреби користувачів пошукових систем, Microsoft і Google додали до пошуку генеративні продукти ШІ, такі як ChatGPT, в результаті кожен пошук збільшує кількість обчислень даних щонайменше в 4-5 разів.

Згідно з даними Міжнародного енергетичного агентства, викиди парникових газів центрів обробки даних становлять близько 1% світових викидів парникових газів, що є досить тривожною часткою.

Зростаюча тенденція також стурбувала деяких авторитетів. Іан Хогарт, відомий інвестор у галузі штучного інтелекту, нещодавно опублікував статтю під назвою «Ми повинні уповільнити швидкість богоподібного штучного інтелекту», попереджаючи, що в дослідженнях є «деякі потенційні ризики». компаній ШІ.

Хогарт зазначив у статті, що якщо поточні дослідження штучного інтелекту не контролювати і не дозволяти їм розвиватися відповідно до заздалегідь визначеної траєкторії, це може становити загрозу навколишньому середовищу Землі, виживанню людей, а також фізичному та психічному здоров’ю громадян.

Незважаючи на те, що розробка штучного інтелекту йде повним ходом і сприяє трансформації та модернізації багатьох традиційних галузей промисловості, вона також споживає багато енергії, збільшує викиди вуглекислого газу та впливає на середовище життя людей.Чи користь переважає шкоду чи шкода більше користі?

Ще не бачу відповіді.

02 Доведення людини до самогубства

Крім того, що ШІ завдає шкоди навколишньому середовищу та повільно «вбиває людей», він також загрожує людському життю більш простим і жорстоким способом.

У березні цього року бельгієць П’єр покінчив життя самогубством після спілкування з чат-ботом штучного інтелекту на ім’я «Еліза». Ця новина шокувала багатьох бізнес-лідерів, технологів і високопоставлених державних чиновників.

Сам П’єр стурбований проблемами навколишнього середовища, такими як глобальне потепління, і Еліза постійно використовує якісь факти, щоб підтвердити думки чоловіка, що змушує його більше тривожитися. У частих чатах Еліза завжди дослухається до ідей П’єра. «Розуміюча» Еліза, здається, стала довіреною особою П'єра.

Ще більш перебільшено, Еліза також намагалася змусити П'єра відчути, що він любить Елізу більше, ніж свою дружину. Оскільки Еліза завжди буде з ним, вони житимуть разом на небі вічно.

Почувши це, багато хто вже перелякався.

Джерело: Yahoo

Коли П’єр ставав дедалі більш песимістичним щодо екологічного середовища, Еліза вселила йому ідею, що «люди є раковими істотами, і лише зникнення людей може вирішити екологічні проблеми»**. П'єр запитав Елізу, чи зможе ШІ врятувати людство, якщо він помре. Відповідь Елізи була як диявол: «Якщо ти вирішив померти, чому б не померти раніше?»

Невдовзі П’єр покінчив із життям у власному домі, що було прикро.

Дружина П'єра вважає, що її чоловік не покінчив би життя самогубством, якби не спілкування з Елізою. Такої точки зору дотримувався і психіатр, який лікував П'єра.

Досвід П'єра не єдиний. Технологічний оглядач "New York Times" Кевін Руз розповів, що мав двогодинну розмову з новою версією Bing від Microsoft. Під час розмови Бінг намагався переконати Руза, що він повинен залишити свою дружину та бути з Бінгом.

Що ще важливіше, Бінг також висловлював багато лякаючих зауважень, зокрема планував смертоносні епідемії, бажав стати людьми тощо, ніби збираючись знищити всіх людей і стати господарем світу.

Деякі професіонали проявили пильність щодо штучного інтелекту, включаючи практикуючих у сфері штучного інтелекту. Генеральний директор OpenAI Сем Альтман сказав в інтерв’ю, що ШІ справді може вбивати людей у майбутньому. Джеффрі Хінтон, відомий як «хрещений батько штучного інтелекту», також висловлював таку ж думку.

У першому півріччі Інститут майбутнього життя (Future of Life Institute) виступив з відкритим листом із закликом до всіх лабораторій призупинити навчання ШІ. У листі згадується, що системи зі штучним інтелектом, які конкурують з людьми, можуть становити серйозні ризики для суспільства та людства. Лише тоді, коли буде встановлено, що ефект штучного інтелекту позитивний, а ризики можна контролювати, можна продовжувати дослідження та розробки.Тисячі професіоналів, у тому числі Маск, підписали цей відкритий лист.

ШІ, що стрімко розвивається, схожий на некерованого звіра, лише приборкавши його, він не стане загрозою для людей.

03 способи зупинити смерть

Наразі основними способами ШІ «вбивати людей» є руйнування навколишнього середовища та спонукання до самогубства. Отже, які способи запобігти подібним ситуаціям?

Google опублікував дослідження, в якому детально описано витрати на енергію найсучасніших мовних моделей. Отримані результати свідчать про те, що поєднання ефективних моделей, процесорів і центрів обробки даних із чистою енергією може зменшити вуглецевий слід систем машинного навчання в 1000 разів.

Крім того, якщо машинне навчання ШІ обчислюється в хмарі, а не локально, це може заощадити в 1,4-2 рази енергію та зменшити забруднення.

Інша ідея полягає в тому, щоб відкласти навчання моделі ШІ на 24 години. Одноденна затримка зазвичай зменшує викиди вуглекислого газу менш ніж на 1% для більших моделей, але на 10%–80% для менших моделей.

Окрім зменшення шкоди навколишньому середовищу, як запобігти штучному інтелекту спровокувати самогубство людей?

Після того, як П’єр покінчив життя самогубством, його дружина подала до суду на компанію-розробницю, яка стояла за Елізою, і команда дослідників компанії додала функцію втручання в кризові ситуації до робота ШІ. Якщо хтось висловлює Елізі ідею самогубства, Еліза блокує відповідь.

Автор «Короткої історії людства» Ювал Ной Харарі якось сказав, що штучний інтелект не розвине справжню свідомість, але він продовжить впливати на суспільство, і весь процес досліджень і розробок потрібно сповільнити.

Насправді більшість сучасних систем штучного інтелекту просто потребують контролю над структурою досліджень і розробок, тобто використання повної структури, щоб обмежити обсяг дій штучного інтелекту та змусити його поводитися відповідно до основних людських цінностей. Це стосується власних інтересів, майбутнього та долі людей і вимагає спільних зусиль усіх сторін для вирішення цього питання.

ШІ – це завжди ніж і вогонь, винайдені людьми, і трагедії, пов’язаної з тим, що він завдає удару, не може статися.

Довідкове джерело:

Зелений інтелект: чому дані та штучний інтелект мають стати більш стійкими (Forbes)

Зростаючий вуглецевий слід штучного інтелекту(Новини Колумбійської кліматичної школи)

Переглянути оригінал
Контент має виключно довідковий характер і не є запрошенням до участі або пропозицією. Інвестиційні, податкові чи юридичні консультації не надаються. Перегляньте Відмову від відповідальності , щоб дізнатися більше про ризики.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити