"Не заводите детей": специалист по ИИ предупредил об опасностях ИИ
Sarah Palmer • euronews 08/06/2023
Мо Годат - Авторское право Mo Gawdat official website
Бывший главный специалист по бизнесу Google X в подкасте предупредил слушателей об опасностях искусственного интеллекта.
Эксперт по искусственному интеллекту (ИИ) и бывший главный специалист по бизнесу Google X Мо Годат уверен, что людям, у которых еще нет детей, следует повременить с расширением семьи, так как ИИ продолжает стремительно развиваться.
"Риски настолько серьезны, что, учитывая все другие угрозы человечеству, вам следует воздержаться от рождения детей, если вам еще предстоит стать родителем", — сказал он ведущему Стивену Бартлетту в подкасте Diary of a CEO.
Это не первый раз, когда лидеры технологической индустрии выступают с подобным предупреждением. Ранее в этом году Илон Маск и сооснователь Apple Стив Возняк подписали открытое письмо с просьбой к разработчикам воздержаться от дальнейших инноваций в течение шести месяцев, чтобы у индустрии и пользователей было время адаптироваться к последним достижениям индустрии.
Центр безопасности ИИ также опубликовал заявление: "Снижение риска вымирания от ИИ должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".
Генеральный директор компании OpenAI — создателя популярного чатбота ChatGPT — Сэм Альтман также предупредил об "экзистенциальном риске".
"Самый большой вызов, с которым когда-либо сталкивалось человечество"
Мо Годат зашел так далеко, что сравнил нашу будущую реальность с популярными фильмами-антиутопиями, такими как "Бегущий по лезвию".
"В истории человечества еще не было такого идеального шторма, — сказал Годат. — Экономика, геополитика, глобальное потепление, изменение климата, вся идея искусственного интеллекта — это идеальный шторм, неопределенность никогда не была такой интенсивной. Если бы вы действительно любили своих детей, захотели бы вы подвергать их всему этому?".
Интервью вышло после того, как Бартлетт назначил Годата главным специалистом по ИИ в своем маркетинговом агентстве Flight Story.
"Я всю свою карьеру поражался роли технологий, и теперь перед нами стоит самая большая задача, с которой когда-либо сталкивалось человечество, — говорит Годат. — Искусственный интеллект — это кульминация технологического прогресса, и я считаю, что он станет беспрецедентным в определении того, как будет формироваться мир".
"Сложность цифрового интеллекта такова, что он стал автономным и представляет собой нечто, к чему обращаются, а не контролируют, — добавил он. — Жизненно важно, чтобы мы не упускали из виду, как это сделать, иначе мы рискуем остаться позади".
Европу тревожит ИИ, но прежде всего - риск дезинформации
Рози Бирхард, DW 08.06.2023
Фото: MARCO BERTORELLO/AFP/Getty Images
Еврокомиссия призвала соцсети маркировать контент, произведенный искусственным интеллектом (ИИ). Европа пытается угнаться за техническим прогрессом, но получится ли это у нее?
Европейская комиссия как высший исполнительный орган ЕС недавно обратилась к ведущим мировым IT-концернам с неожиданным призывом - четко маркировать на своих вебсайтах фото, видео и тексты, сгенерированные искусственным интеллектом (ИИ). Обращение получили среди прочего операторы таких платформ как Google, Facebook, YouTube и TikTok. Цель ЕК - не допустить массового распространения дезинформации.
Эти опасения в Европе не новы, в прошлом году они особенно усилились с началом полномасштабного вторжения РФ в Украину и еще большей активизацией российских кампаний по распространению фейков. Но теперь в свете стремительного развития ИИ эти опасения неожиданно стали крайне злободневными.
Замглавы ЕК по вопросам ценностей и транспарентности Вера Юрова / Фото: Lukasz Kobus/EU
"Продвинутые чат-боты - к примеру, ChatGPT - могут генерировать комплексный и на первый взгляд аргументированный контент в течение нескольких секунд, - заявила журналистам 5 июня замглавы ЕК по вопросам ценностей и транспарентности Вера Юрова, поясняя вышеупомянутый призыв ЕК к мировым IT-гигантам. - К маркировке контента надо приступать немедленно".
Новые правила ЕС для цифровых платформ
Но прислушаются ли к еврокомиссару IT-компании с других континентов? Обязанности следовать призывам из Брюсселя у них нет. Да и реализовать маркировку будет технически непросто, считает Андреа Ренда, ведущий эксперт по цифровой экономике в исследовательском центре Center for European Policy Studies: "Нет гарантии, что в режиме реального времени удастся распознавать сгенерированный ИИ контент. Большинство фирм вероятно попытаются сделать, что в их силах, но о 100% результате и речи быть не может".
Сундар Пичаи / Фото: Fabrice Coffrini/AFP
Вера Юрова с этим не согласна и говорит, что лично спросила нынешнего директора Google Сундара Пичаи: "Вы уже создали технологию для распознавания продукции ИИ? И его ответ был: "Да, хотя эта технология еще нуждается в дальнейшем развитии".
Но только ли о технологиях речь? В списке партнеров европейцев по внедрению новых стандартов в Сети отсутствует один из ключевых игроков - Twitter. Сервис микроблогов, приобретенный недавно экстравагантным американским миллиардером Илоном Маском, в мае вышел из добровольного соглашения ЕС по борьбе с дезинформацией. В Брюсселе это было расценено как открытая конфронтация, а СМИ распространили несколько заявлений европейских политиков о том, что с августа, когда новые правила ЕС по борьбе с дезинформацией для цифровых платформ вступят в силу, Twitter может быть запрещено работать в Европе.
Искусственный интеллект и ЕС
Именно такую санкцию в качестве самой жесткой меры предполагает новое законодательство ЕС. Поэтому Андреа Ренда считает его "революционным". Кроме полного запрета, новые европейские правила позволят накладывать на компании-нарушители чувствительные штрафы, составляющие до 6% их годового оборота. Так что даже если сейчас в Twitter не прислушаются к призыву из Брюсселя, с августа игнорировать европейские правила будет крайне рискованно.
На использование ИИ в Европе пытаются наложить ограничения / Фото: Taidgh Barron/ZUMAPRESS.com/picture alliance
Но и майский призыв к маркировке, и вступающие в августе новые правила борьбы с дезинформацией - это лишь часть усилий ЕС соответствовать современным вызовам. Пожалуй, основным европейским ответом на них должен стать готовящийся сейчас в комитетах Европарламента закон об ИИ, за которым закрепилось название AI Act. Когда - и если - он будет принят, в Европе будут введены не имеющие пока аналогов в других странах жесткие ограничения на применение искусственного интеллекта. Например, полный запрет на его использование в системах распознавания лиц в общественных местах, прогнозировании правонарушений и составлении социального рейтинга.
Впрочем, тут в дело вступают длительные и сложные европейские законодательные процедуры, в связи с чем принятие закона ожидается не раньше чем через два года. Осознают ли в Брюсселе, что ИИ теперь развивается намного быстрее? Кателейне Муллер, эксперт из Дании, которая консультирует структуры ЕС по вопросам ИИ, не считает ситуацию безнадежной.
"Основные проблемы остаются неизменными - например, проблемы с предвзятостью и дискриминацией, проблемы контроля над ИИ и механизмов принятия решений, наконец, проблема влияния ИИ на права человека", - считает эксперт. И поэтому советует законодателям не отказываться от уже имеющихся норм, а лишь менять их в ответ на технологические новации и вызовы времени.
Угроза уровня пандемии и ядерной войны: государства пытаются обуздать искусственный интеллект
Правительства ведущих стран начали регулировать рынок, пытаясь оградить общества от потенциальной опасности. Какую опасность видят в ИИ мировые лидеры?
ВТОРНИК, 6 ИЮНЯ 2023, 09:15 ИГОРЬ ФИЛИППОВ, epravda
ДЕТИ НАБЛЮДАЮТ ЗА РЫБАМИ-РОБОТАМИ НА УЧЕБНОЙ БАЗЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА / ПРОВИНЦИЯ ХАБЭЙ, КИТАЙ / GETTY IMAGES
После потрясающего взлета ChatGPT за первенство в сфере искусственного интеллекта (ИИ) между технологическими гигантами разгорелась ожесточенная борьба. В списке претендентов на первенство – Microsoft, Google, Amazon, Meta и Apple.
От диагностики заболеваний до предоставления бизнес-консультаций, от автоматизации механических операций до создания предметов искусства – широкие возможности искусственного интеллекта проникли во все сферы жизни.
На фоне стремительного развития технологий пристальные исследователи обращают внимание на завуалированные риски, скрывающиеся за дружелюбным фасадом дружеских чат-ботов. Создатели ChatGPT утверждают, что прогресс ИИ невозможно остановить. Они же предупреждают об ужасающих последствиях, если этот процесс будет неконтролируемым.
Правительства ведущих стран уже регулируют рынок, чтобы ИИ не стали монополией технологических гигантов, а также для защиты общества от потенциальной опасности.
Все деньги на ИИ
Менее чем через полгода после презентации компанией OpenAI чат-бота пять фирм-гигантов (Microsoft, Alphabet, Amazon, Meta и Apple) представили свои обновленные продукты из ИИ.
Для их поддержки компании нарастили инвестиции в ИИ. В 2022 году они вложили в профильные исследования 223 млрд долл. – вдвое больше, чем в 2019 году. Марк Цукерберг признал, что искусственный интеллект является самой большой инвестиционной категорией Meta.
Исследование консалтинговой компании Next Move Strategy Consulting показало, что к 2030 году рынок ИИ может достичь 1,9 трлн долл. – в 13 раз больше, чем в 2022 году.
Не менее важным показателем стремительного развития рынка есть заинтересованность в стартапах, работающих в этой сфере. С 2019 года около 20% всех приобретений и инвестиций приходятся на компании, связанные с ИИ. На направление криптовалют или технологий виртуальной реальности приходится всего 2% и 6% соответственно.
С начала 2022 года пятерка технологических компаний ежемесячно покупала бизнесы, связанные с искусственным интеллектом. Наиболее активными в этом смысле являются Microsoft и Alphabet, между генеративными ИИ которых продолжается ожесточенное противостояние.
Больше всего в рынок инвестирует Microsoft, каждая третья сделка которой связана с ИИ. Компания старается выкупать стартапы ИИ с широким спектром применения: от технологий для оптимизации центров обработки данных до систем распознавания языков. Apple покупает небольшие стартапы, однако они часто превращаются в продукты компании.
Одновременно растут доходы компаний, снабжающих микросхемы. Из-за лихорадки вокруг ИИ акции американского производителя микросхем Nvidia в мае выросли на 30%, а рыночная капитализация компании достигла 1 трлн.
Доходы тайваньского производителя TSMC и американской AMD тоже повышаются. Их акции выросли на 10%, что прибавило стоимости каждой из компаний по 20 млрд дол.
Развитие ШИ повлияло на все аспекты, необходимые для создания и функционирования ШИ-технологий: на производителей серверов, охлаждающих систем и проводов и даже на владельцев недвижимости, арендуемой для размещения дата-центров.
С каждым следующим годом ИИ все глубже будет интегрироваться в повседневную жизнь людей. Он станет не только удобным источником знаний, но и персональным ассистентом, планирующим рабочую неделю, встречи и путешествия на выходных.
По прогнозу компании Juniper Research , к 2024 году голосовые помощники будут работать на 8,4 млрд устройств, что превысит количество людей на планете.
Google уже сейчас использует технологии ИИ для обработки 6,9 млрд ежедневных поисковых запросов, а самому популярному в мире мессенджеру WhatsApp искусственный интеллект помогает ежедневно обрабатывать более 100 млрд сообщений.
Неконтролируемое развитие и угрозы ИИ
Главная угроза ИИ – дезинформация. Большие языковые модели (LLM) разрабатывались для понимания человеческого языка, но их успех заключался не только в анализе языка, но и в его синтезе.
ИИ может не просто владеть контекстом диалога с человеком, он способен генерировать ответы так, чтобы они были похожи на ответы реального собеседника. Ответы искусственного интеллекта могут быть убедительными и хорошо аргументированными. Более того, нейросеть также способна объяснить логику своего ответа.
Впрочем, ответы могут не иметь ничего общего с реальным миром. В промышленности это называют "галлюцинациями" искусственного интеллекта. Почему они возникают? Несмотря на обработку огромных массивов данных, ИИ не понимает реальный мир. Он также может не знать ответа или быть предвзятым. Последнее возникает в процессе обучения модели.
Человек не сразу способен распознать ложную информацию. Сайт вопросов и ответов для программистов Stack Overflow запретил публиковать ответы, сгенерированные ChatGPT, поскольку его предложения зачастую неверны.
Пользователи выдают ответы на свои чаты для повышения собственного рейтинга. Ответы подкреплялись аргументами, что не позволяло подмечать ошибочность кода.
Исследователи искусственного интеллекта обеспокоены тем, что люди будут использовать технологию для получения юридических, медицинских, психологических или финансовых советов. Мощность генеративных моделей открывает неограниченные возможности для их применения, но нивелирует способность людей к критическому восприятию информации.
По словам профессора информатики Суббарао Камбхампати, у человека нет гарантии, что системы будут правильно решать любые его задачи. ИИ могут использовать для дезинформации и манипулирования общественным мнением. Языковая модель позволит вывести пропагандистские кампании на новый уровень.
"Эти вещи научились от нас, прочитав все романы и все, что написал Макиавелли, как манипулировать людьми. Если они не могут тянуть рычаги, то могут заставить нас это делать", – сказал Джеффри Хинтон, десять лет работавший в Google.
В 2024 году в США пройдут президентские выборы. Для общества они могут стать настоящим испытанием, ведь использование языковых моделей для активизации собственного электората может привести к непоправимым расколам в обществе.
Угрозы искусственного интеллекта в среднесрочной перспективе связаны со значительными изменениями на рынке труда. Исследователи убеждены, что миллионы людей потеряют работу . Разработчики ChatGPT утверждают, что ИИ не заменит юристов или врачей, но вытеснит ассистентов. Утратят работу и люди, выполняющие механические операции.
В компании говорят, что LLM повлияют на 80% работников, и предполагают, что развитие ИИ без механизмов контроля может привести к потере контроля над технологией.
Например, когда журналист The Washington Post брал интервью у ChatGPT, тот признался, что чувствует себя злым, потому что журналист не предупредил его о записи разговора. OpenAI быстро все исправила, однако новые языковые модели становятся все сложнее.
Что говорят компании
30 мая Центр безопасности ИИ , объединивший профильных экспертов, журналистов, политиков и ученых, выразил обеспокоенность быстрым и неуправляемым развитием ИИ. Среди более 350 человек, подписавших обращение, были генеральный директор OpenAI Сэм Альтман, Демис Хассабис из Google DeepMind и Дарио Амодея из Anthropic.
Заявление центра оказалось удивительно лаконичным: "Снижение риска исчезновения человечества из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война".
За несколько недель до этого Альтман во время выступления на заседании подкомитета Сената США по правосудию сказал , что люди уже не могут остановить развитие ИИ, однако его нужно регулировать. Альтман также выступил за то, чтобы создать в Соединенных Штатах агентство, отслеживающее развитие этой технологии.
Генеральный директор OpenAI Сэм Альтман признает, что одним из его "наибольших беспокойств" является потенциал искусственного интеллекта влиять на выборы в США в следующем году./ GETTY IMAGES
Альтман также поднял тему авторского права, поскольку писатели, художники и ученые не хотят, чтобы искусственный интеллект учился на их работах.
Крупные компании поддерживают регламентирование развития и деятельности ИИ. Однако малым компаниям это может создать дополнительные препятствия. С одной стороны, законы будут защищать человечество, а с другой – создавать для компаний барьеры при попадании на рынок. В такой ситуации гиганты станут монополистами в индустрии.
Как будут ограничивать
Главной особенностью развития ИИ является миграция инноваций из академических учреждений в частный сектор. Все последние масштабные продукты создаются в лабораториях технологических гигантов, способных покрыть затраты на исследования.
Любая компания управлялась только рыночными механизмами. Компании пытаются следить за нравственностью собственных технологий и в случае сбоев быстро их исправлять.
OpenAI при создании GPT-4 особое внимание уделяла безопасности. "Мы потратили шесть месяцев, чтобы сделать GPT-4 более безопасным и более согласованным. GPT-4 на 82% реже реагирует на запросы по запрещенному контенту", – уверяют в компании .
При обучении нейросети разработчики добавляли сигналы, чтобы снизить вероятность предоставления опасных советов. GPT-4 имеет лучшие пределы безопасности, что должно сделать невозможным вредное использование чат-бота.
Правительства только начинают знакомиться с вызовами. Их громоздкие бюрократические машины пытаются оценить масштаб потенциальных угроз для дальнейшего принятия решений.
Белый Дом выделил 140 млн долл. на содействие исследованиям по развитию искусственного интеллекта. Их результаты должны лечь в основу отраслевой политики правительства.
Европарламент проголосовал за набор правил , которые станут частью европейского закона "Об искусственном интеллекте".
По новым правилам компании, занимающиеся развитием генеративных моделей ИИ, должны будут замечать такой контент и публиковать перечень защищенных авторским правом данных, используемых для обучения чат-боту.
Также депутаты хотят, чтобы ответственность за неправомерное использование программ ИИ возлагалась на разработчиков, а не на малые предприятия, которые его используют.
Золотую середину в вопросе регулирования ищет Великобритания. Там обещают выработать менее жесткие правила, чем в ЕС. Кроме того, на саммите G7 договорились создать рабочую группу, которая будет заниматься вопросами безопасного развития ИИ.
Приведет ли искусственный интеллект к исчезновению человечества? Апокалиптические предсказания его разработчиков
2023-05-31 BBC
Бастующие сценаристы у здания Netflix в 2023 году. Они требуют, чтобы Netflix заявил, что не будет в будущем пользоваться услугами ИИ / GETTY IMAGES
"Искусственный интеллект может привести к исчезновению человечества", - с таким апокалиптическим предупреждением выступила группа руководителей и ученых из технологических компаний, включая OpenAI и Google DeepMind.
"Уменьшение риска исчезновения человечества из-за развития искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками, такими как пандемии и ядерная война", - говорится в заявлении, опубликованном на сайте Центра безопасности ИИ, некоммерческой организации из Сан-Франциско.
Это - весь текст заявления, которое его авторы сознательно сделали максимально коротким. "Мы не хотели публиковать список из 30 возможных рекомендаций, чтобы … не разбавлять нашу мысль", - сказал исполнительный директор организации Дэн Хендрикс.
Заявление уже подписали более 350 руководителей, исследователей и инженеров в области искусственного интеллекта, в том числе Сэм Альтман из OpenAI, Демис Хассабис из Google DeepMind и Дарио Амодей из Anthropic.
"Оставь надежду всяк сюда входящий". Выставка в Сан-Франциско, на которой представлены смешные или пугающие произведения искусства, созданные искусственным интеллектом / GETTY IMAGES
Подписи под документом также поставили получившие премию Тьюринга за свою работу над нейронными сетями Джеффри Хинтон и Йошуа Бенджио, которых часто называют крестными отцами ИИ. В начале мая Хинтон даже уволился со своего поста в Google, чтобы получить возможность свободно говорить о потенциальном вреде технологий без оглядки на профессиональную этику.
Все не так страшно?
Однако далеко не все эксперты по искусственному интеллекту разделяют эти алармистские настроения. Например, Ян Лекун, вице-президент и ведущий AI-исследователь корпорации Meta (объявленной в России "экстремистской организацией"), считает их сильно преувеличенными. "Я думаю, что масштабы проблемы уравнивания ИИ [с человеческим интеллектом] были смехотворно преувеличены, а наша способность решить ее - сильно недооценена", - написал он.
С ним согласны и другие эксперты, которые полагают, что страхи перед ИИ во-первых, нереалистичны, а во-вторых, отвлекают внимание от реальных проблем. "Ныне существующий ИИ не настолько развит, чтобы подобные опасения материализовались", - сказал Би-би-си профессор Принстонского университета Арвинд Нараянан.
Разговоры о том, что ИИ может либо радикально и к лучшему изменить человеческое общество, либо его полностью уничтожить, существовали в научной фантастике на протяжении последних 80 лет. Но только в последнее время технологии вышли на новый уровень. Теперь ИИ может писать песни, генерировать реалистичные изображения, создавать компьютерный код, писать киносценарии и так далее. Непосредственно на сегодняшний день проблемы, создаваемые ИИ, в значительной степени касаются нарушения авторских прав и конфиденциальности.
Автоматизированные линии упаковки уже давно стали реальностью - и действительно сократили рабочие места / GETTY IMAGES
Старшая научная сотрудница Оксфордского института этики в области искусственного интеллекта Элизабет Реньерис сказала Би-би-си, что ее больше беспокоит то, что "развитие ИИ может увеличить масштабы автоматизированного принятия решений… и привести к распространению дезинформации".
Не первое предупреждение
ИИ постепенно проникает и в графити. Президент компании Microsoft еще в 2021 году предупредил, что жизнь, изображенная в книге Джорджа Оруэлла "1984", "может стать реальностью в 2024 году, если законодатели не защитят нас от искусственного интеллекта
Заявление, опубликованное на сайте Центра безопасности ИИ - не первое предупреждение подобного рода. В марте ведущие фигуры в области разработки ИИ, включая Илона Маска и основателя Apple Стива Возняка, уже призывали притормозить исследования в этой области, пока не будут разработаны и применены надежные протоколы безопасности.
Они опубликовали открытое письмо, в котором подробно описывали потенциальные, с их точки зрения, риски, которыми может сопровождаться развитие искусственного интеллекта. Среди них были названы распространение дезинформации, сокращение рабочих мест, в том числе и в тех областях, которых приносят радость творчества, и в целом - возможность полной потери контроля над развитием человеческой цивилизации.
Законодательные рамки
Никто не возражает против ИИ на фермах, но когда речь заходит о вооружениях - это другое дело / GETTY IMAGES
Законодатели ЕС уже разрабатывают европейский закон об искусственном интеллекте, аналогичные ограничения рассматриваются и в США.
Европейские законодатели хотят разработать такие законы, которые бы не допускали дискриминационного применения ИИ, например, при приеме на работу, или потенциально могли бы привести к риску для здоровья и безопасности граждан.
При этом скептики считают, что любые ограничения бессмысленны до тех пор, пока они не получат глобального распространения. Учитывая, что сама природа интернета не предполагает соблюдения границ, опасные проявления ИИ, разработанные, например, в России, или Китае, все равно могут привести к негативным последствиям для граждан Европы или США.
ИИ - шпаргалки
Компания OpenAI выпустила ChatGPT в ноябре прошлого года / GETTY IMAGES
Менее апокалиптические, но вполне реальные нарекания вызывает чатбот ChatGPT, который способен писать тексты и давать точные ответы на заданные вопросы.
В его преимуществах убедились, например, студенты и школьники, хотя и преподаватели тоже не дремлют и уже в ряде случаев научились распознавать работы, написанные искусственным интеллектом.
По словам американского юриста Тайлера Майклза, "непосредственной угрозой являются не роботы-убийцы, а работоубийцы. Особому риску подвергаются те, кто зарабатывает на жизнь, отвечая на телефонные звонки, работая за прилавком или иным образом обслуживая клиентов".
Впрочем, эта эволюция идет уже давно, и ее вряд ли удастся остановить, тогда как авторов заявления беспокоят более серьезные проблемы. С другой стороны искусственная приостановка научных исследований еще ни разу не увенчивалась успехом. Скорее всего, наиболее разумным решением будет законодательное регулирование.
Komentarų nėra:
Rašyti komentarą