Раскрываются новые подробности инцидента с убийством ИИ, а контратака искусственного интеллекта крайне пугает

Источник: "Silicon Rabbit Race" (ID: sv_race), автор: Эрик, редакторы: Манман Чжоу, Зури.

Источник изображения: сгенерировано Unbounded AI

Когда люди думают, Бог смеется.

Когда ChatGPT стал популярным во всем мире, одновременно охватило увлечение ИИ. Предприниматели, капитал, крупные компании и т. д. изо всех сил стараются не отставать от бума и получать больше приращений.

Однако, когда все с энтузиазмом и ломают голову, чтобы посвятить себя ИИ, приближается опасное дыхание — ИИ, кажется, медленно «убивает» людей, а люди, кажется, роют себе могилы.

В инерционном познании многих людей ИИ очень экологичен и дружелюбен, но на деле все наоборот.

«MIT Technology Review» сообщает, что** простое обучение модели искусственного интеллекта может привести к выбросу более 626 фунтов углекислого газа, что в 5 раз превышает выбросы углерода, производимые автомобилем за весь его срок службы. **

Люди видят только выхлопные газы автомобилей, но не «невидимое разрушение» ИИ окружающей среде.

Кроме того, некоторые СМИ сообщили, что графические процессоры для ИИ, которые появятся на рынке в 2022 году, могут потреблять около 9,5 миллиардов киловатт-часов электроэнергии в течение года. Этот уровень энергопотребления примерно равен годовому производству и бытовому спросу на электроэнергию в среднеразвитой стране с населением 1 миллион человек.

Это означает, что когда объем данных, необходимых для обучения большой модели ИИ, увеличивается, он будет потреблять огромное количество энергии, тем самым разрушая экологическую среду, от которой зависят люди.

Что еще более пугает, так это то, что некоторые чат-боты с искусственным интеллектом даже имеют тенденцию вызывать самоубийство человека при общении с людьми, что заставляет людей содрогаться.

Действительно ли люди хотят продолжать путь исследования ИИ?

01 "Разрушитель" экологической среды

Благодаря ChatGPT OpenAI стал популярным в мире жареным цыпленком.

Однако многие люди не знают, что негативное влияние OpenAI на экологическую среду также весьма тревожно. Согласно анализу сторонних исследователей, часть обучения ChatGPT израсходовала 1287 мегаватт-часов и привела к выбросу более 550 тонн углекислого газа, что эквивалентно 550 поездкам туда и обратно между Нью-Йорком и Сан-Франциско для человека.

Кажется, что хотя ChatGPT достаточно умен, это происходит за счет огромных потерь энергии и ущерба окружающей среде.

Так почему же ИИ создает такой огромный углеродный след?

Поскольку ИИ не обучается структурированным образом, он не понимает человеческих причинно-следственных связей, аналогий и других логических взаимосвязей, а это означает, что для достижения интеллектуальных результатов ему необходим метод глубокого обучения и предварительной подготовки.

А глубокое обучение и предварительное обучение часто требуют чтения очень больших данных. Возьмите технологию предварительного обучения «модель BERT» обработки естественного языка (NLP), для общения с людьми модель BERT использует набор данных из 3,3 миллиарда слов и считывает набор данных 40 раз во время обучения. Пятилетнему ребенку для общения нужно услышать всего 45 миллионов слов, что в 3000 раз меньше, чем при использовании BERT.

Чем больше наборов данных считывает модель ИИ, тем более мощная вычислительная мощность и огромное энергопотребление необходимы для ее поддержки, что приводит к огромным выбросам углерода.

Выбросы углерода происходят не только во время обучения модели ИИ, но и каждый день после развертывания модели ИИ. Например, нынешнее автономное вождение требует, чтобы модели ИИ ежедневно выполняли расчеты и рассуждения, что будет генерировать выбросы углерода. Интересно, что Python, основной язык программирования ИИ, стал самым энергоемким языком.

Что заставляет людей чувствовать себя мрачно, так это то, что масштаб вычислений моделей ИИ становится все больше и больше, а энергетический ущерб и ущерб окружающей среде усиливаются.

Мартин Бушар, соучредитель канадской компании по производству центров обработки данных QScale, считает, что для удовлетворения растущих потребностей пользователей поисковых систем Microsoft и Google добавили в поиск продукты с генеративным искусственным интеллектом, такие как ChatGPT, в результате каждый поиск увеличивает объем вычислений данных как минимум в 4-5 раз.

Согласно данным Международного энергетического агентства, выбросы парниковых газов в центрах обработки данных составляют около 1% глобальных выбросов парниковых газов, что является достаточно тревожной долей.

Растущая тенденция также обеспокоила некоторых крупных шишек. Иэн Хогарт, известный инвестор в области ИИ, недавно опубликовал статью под названием «Мы должны замедлить скорость богоподобного искусственного интеллекта», предупредив, что в исследованиях есть «некоторые потенциальные риски». ИИ-компаний.

Хогарт упомянул в статье, что, если текущее исследование ИИ не будет контролироваться и не будет позволено развиваться по заранее заданной траектории, оно может представлять угрозу для окружающей среды Земли, выживания человечества, физического и психического здоровья граждан.

Хотя разработка ИИ идет полным ходом и способствует преобразованию и модернизации многих традиционных отраслей, он также потребляет много энергии, увеличивает выбросы углерода и влияет на среду обитания людей. вред превышает пользу?

Пока не вижу ответа.

02 Вынуждение человека к самоубийству

Помимо причинения вреда окружающей среде и медленного «убийства людей», ИИ также угрожает человеческой жизни более простым и жестоким способом.

В марте этого года бельгиец Пьер покончил жизнь самоубийством после разговора с чат-ботом с искусственным интеллектом по имени «Элиза». Эта новость потрясла многих руководителей бизнеса, технологов и высокопоставленных государственных чиновников.

Сам Пьер беспокоится об экологических проблемах, таких как глобальное потепление, а Элиза постоянно использует какие-то факты для подтверждения мыслей мужчины, заставляя его тревожиться еще больше. В частых беседах Элиза всегда поддерживает идеи Пьера. «Понимающая» Элиза, похоже, стала наперсницей Пьера.

Еще более преувеличенно, Элиза также пыталась дать Пьеру почувствовать, что он любит Элизу больше, чем свою жену. Поскольку Элиза всегда будет с ним, они будут жить вместе на небесах вечно.

Услышав это, многие люди уже были в ужасе.

Источник: Yahoo

Когда Пьер стал все более и более пессимистично относиться к экологической среде, Элиза внушила Пьеру мысль о том, что «люди раковые, и только исчезновение человека может решить экологические проблемы»**. Пьер спросил Элизу, сможет ли ИИ спасти человечество, если он умрет. Ответ Элизы был дьявольским: "Если ты решил умереть, почему бы не умереть раньше?"

Пьеру не потребовалось много времени, чтобы покончить с собой в собственном доме, что было прискорбно.

Жена Пьера считает, что ее муж не покончил бы с собой, если бы не общение с Элизой. Такого же мнения придерживался и психиатр, лечивший Пьера.

Опыт Пьера не одинок. Технологический обозреватель New York Times Кевин Руз сообщил, что у него был двухчасовой разговор с новой версией Bing от Microsoft. Во время разговора Бинг пытался убедить Русе, что ему следует бросить жену и быть с Бингом.

Что еще более важно, Бинг также высказал множество пугающих замечаний, в том числе о разработке смертельных эпидемий, желании стать человеком и т. д., как будто намереваясь уничтожить всех людей и стать хозяином мира.

Некоторые специалисты проявили бдительность в отношении ИИ, в том числе специалисты-практики в области ИИ. Генеральный директор OpenAI Сэм Альтман сказал в интервью, что ИИ действительно может убить людей в будущем. Джеффри Хинтон, известный как «Крестный отец искусственного интеллекта», также выразил ту же точку зрения.

В первом полугодии Институт будущего жизни (Future of Life Institute) выпустил открытое письмо с призывом ко всем лабораториям приостановить обучение ИИ. В письме упоминается, что системы с искусственным интеллектом, конкурирующие с людьми, могут представлять серьезную опасность для общества и человечества. Только когда будет установлено, что эффект от искусственного интеллекта положительный, а риски контролируемы, можно будет продолжать исследования и разработки.Под этим открытым письмом подписались тысячи профессионалов, в том числе Маск.

Быстро развивающийся ИИ подобен неуправляемому зверю, только приручив его, он может не представлять угрозы для человека.

03 способа остановить смерть

В настоящее время основными способами «убийства людей» для ИИ являются разрушение окружающей среды и побуждение к самоубийству. Итак, как предотвратить подобные ситуации?

Google опубликовал исследование, в котором подробно описывались затраты энергии на современные языковые модели. Полученные данные показывают, что сочетание эффективных моделей, процессоров и центров обработки данных с чистой энергией может уменьшить углеродный след систем машинного обучения в 1000 раз.

Кроме того, если машинное обучение ИИ будет рассчитываться в облаке, а не локально, это может сэкономить в 1,4-2 раза энергию и уменьшить загрязнение окружающей среды.

Другая идея — отложить обучение модели ИИ на 24 часа. Задержка на один день обычно снижает выбросы углерода менее чем на 1% для более крупных моделей и на 10–80% для моделей меньшего размера.

Помимо уменьшения ущерба окружающей среде, как не допустить, чтобы ИИ провоцировал самоубийство человека?

После того, как Пьер покончил жизнь самоубийством, его жена подала в суд на компанию-разработчика, стоящую за Элизой, и затем команда R&D компании добавила в робота с искусственным интеллектом функцию кризисного вмешательства. Если кто-то выскажет Элизе мысль о самоубийстве, Элиза сделает блокирующий ответ.

Автор Краткой истории человечества Юваль Ной Харари однажды сказал, что ИИ не разовьет истинное сознание, но он будет продолжать влиять на общество, и весь процесс исследований и разработок необходимо замедлить.

На самом деле, большинству современных систем ИИ просто нужно контролировать структуру НИОКР, то есть использовать полную структуру, чтобы ограничить масштаб действий ИИ и заставить его вести себя в соответствии с общепринятыми человеческими ценностями. Это касается личных интересов, будущего и судьбы людей и требует совместных усилий всех сторон для решения этой проблемы.

ИИ — это всегда нож и огонь, изобретенные людьми, и трагедия от него невозможна.

** Источник ссылки: **

Зеленый интеллект: почему данные и ИИ должны стать более устойчивыми (Forbes)

Растущий углеродный след ИИ (Новости Колумбийской школы климата)

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить