Тревожные факты о Deepfake

Системный БлокъСистемный Блокъ

Тревожные факты о Deepfake

Уже не раз говорилось о различных потенциальных опасностях искусственного интеллекта, даже если они касаются отдаленного будущего. ИИ может быть очень сильным и может изменять правила игры, хотя, конечно, грядущий захват мира машинами выглядит маловероятным.

Однако применение ИИ в последние годы значительно возросло. Deepfake – это, по сути, сгенерированные искусственным интеллектом искусственные анимации или видео, которые можно редактировать и использовать в самых разных целях. Вы можете записать фальшивое видео о том, как некая знаменитость совершает нелицеприятные поступки, или мировой лидер угрожает соседней державе ядерным оружием. Возможности бесконечны, поэтому это так опасно. Что наиболее опасно? На данный момент технологии зашли настолько далеко, что без довольно сложной экспертизы уже невозможно точно определить, реальную ли картинку мы видим или фальшивую.

Deepfake подняла киберпреступность во всех странах мира на новый уровень, ведь эту технологию можно использовать в таких преступлениях, как кража личных данных, порноместь, политические перевороты и т.д. Опасения вполне оправданы, deepfake и ее интеграция с другими приложениями искусственного интеллекта прошли большой путь всего за пять лет.

10. Это совершенно новый тип преступления

Мы не сомневаемся, что deepfake определенно будет использоваться в будущем, как и большинство инновационных технологий. Однако здесь речь идет в том числе и об огромном количестве преступлений.

Возьмем для примера использование технологии в порномести. Согласно действующим законам в большинстве стран мира, преступление, связанное с загрузкой фото или видео кого-либо без разрешения, ведет к привлечению к ответственности, если будет доказана вина. Однако о deepfake здесь речь не идет. Согласно действующим законам, эти преступления очень сложно классифицировать. И вовсе не понятно, как бороться с ними.

Рассмотрим приведенный пример. Некто выложил фальшивое видео, как вы хлещете розгами резиновую куклу. К какому разряду отнести это преступление? Фактически вторжения в личную жизнь не было, так как видео поддельное, и в действительности ваша частная жизнь нетронута. А исходники для подделки взяты из социальных сетей, где они лежат в открытом доступе.

9. Теперь вы можете создать совершенно нового человека

Даже для самого опытного художника очень сложно нарисовать лицо, которого не существует. Все наше искусство – просто имитация мира, который мы видим вокруг, и создать что-то действительно чуждое или несуществующее невозможно для почти каждого из нас. Вот тут-то и вступают в игру компьютеры, так как они не имеют таких барьеров в своем воображении.

Искусство, созданное искусственным интеллектом, в недавнем прошлом не раз становилось вирусным. Оно отличается от всего, что мы знаем. И если до недавнего времени способности ИИ ограничивались только иллюстрациями и непонятными визуальными эффектами, deepfake сделала большой шаг вперед. Теперь мы можем создавать совершенно новые лица с помощью ИИ и deepfake, и, что неприятно, невозможно утверждать, что они точно вообще не существуют. Однако по-настоящему пугающий момент заключается в том, что благодаря машинному обучению ИИ может делать все это без какого-либо человеческого контроля вообще.

8. Они уже запускают новую глобальную гонку вооружений

Новые технологии часто воспринимаются с подозрением, что обычно вызывает гонку вооружений. То же самое можно сказать об искусственном интеллекте – и особенно о фальшивых фото и видео – поскольку в настоящее время почти каждая крупная страна работает над совершенствованием технологии. Есть одно ключевое различие между deepfake и любыми другими военными технологиями прошлого, хотя у нас нет четкого представления о том, к чему мы стремимся.

В лучшем случае мы знаем, что мы разрабатываем. В частности, речь идет о технологиях, которые позволяют подделать что угодно на таком высоком уровне, что фальшивку распознать невозможно. Однако на самом деле возможности использования ИИ не ограничены ничем.

И совершенно понятно, что глобальная гонка вооруженных сил уже идет полным ходом, и это дело не такого уж далекого будущего. Deepfake уже начала влиять на политику современного мира и за последние несколько лет использовалась во многих политических кампаниях и переворотах по всему миру.

7. Западный мир на самом деле не в такой уж большой опасности

Достаточно уже говорилось о влиянии deepfake на результаты выборов, и это становится причиной одной из самых больших опасностей при ее применении. Представьте себе технологию, настолько продвинутую, что любой может подделать значимую фотографию или видеозапись. Вы можете заставить политика выступить с любой фальшивой речью, которую вы хотите, или заставить фальшивого государственного деятеля объявить чрезвычайное положение в военной сфере, выполнив некоторые настройки на компьютере. Возможности бесконечны, но наиболее разрушительные последствия этой технологии не будут ощущаться развитым миром. Хотя использование deepfake среди технически подкованного населения Запада для влияния на выборы остается постоянной угрозой, у служб безопасности все еще существует немало способов проверки, дабы не допустить нарушений.

Развивающиеся страны, с другой стороны, гораздо беднее и более подвержены кампаниям, направленным на то, чтобы сеять беспорядки с помощью deepfake. Этническая напряженность все еще накаляется во многих странах Азии, Африки и Ближнего Востока, и почти наверняка deepfake будет использоваться для дальнейшего разжигания конфликтов.

6. Они дискредитируют фактические доказательства

Хотя deepfake может быть использована для многих гнусных целей, её влияние на коллективную человеческую психику будет глубже, чем просто влияние на повышение преступности. Живя в обществе, мы надеемся, что фотографии и видео точно отражают реальность, поскольку все, начиная от личности кандидата на выборах и заканчивая расследованием преступлений, опирается на то, что на фотографиях и видео запечатлено все так, как есть на самом деле. В случае с фотошопом всегда было довольно просто определить, где подделка.

При развитии deepfake это будет не так-то легко. В мире, где видео и фото могут быть подправлены кем угодно, не имеет смысла полагаться на визуальные составляющие. Довольно скоро фотографии и видео могут потерять свое изначальное назначение сохранять памятные моменты жизни. А искусственный интеллект сможет «снимать» гораздо лучше любого фотографа. Это будет фундаментальный сдвиг в наших отношениях с окружающим миром.

5. Могут пострадать обычные люди

Нет сомнений в том, что deepfake вызовет много новых и непредвиденных проблем в мировых делах. Однако некоторые из очень неприятных последствий будут ощущаться не страной или мировым лидером, а обычными людьми. Deepfake уже используется, чтобы изощренно отомстить обидчику. Мы уже упоминали о таком использовании, как создание фейковых порно-роликов, что раньше было невозможно. Для этого достаточно любых фотографий.

4. Одна из самых больших опасностей для всего мира

В списке самых серьезных опасностей для мира фигурируют несколько вещей, таких как терроризм, глобальный голод, ядерное оружие, биотерроризм и т.д. Хотя все они, несомненно, довольно опасны, искусственный интеллект быстро становится жизнеспособной – и, возможно, даже самый смертоносный – альтернативой всем им.

Многие ученые и эксперты уже высказались против продолжения исследований в области искусственного интеллекта. И на то есть веская причина. ИИ 2020 года может самовосстановиться, начать исследовать Интернет и самостоятельно изучать информацию и писать собственные программы ИИ.

Объедините это с deepfake, и не будет недостатка в событиях, которые могут пойти не так. И нечто подобное уже происходит. Возьмем, к примеру, недавние выборы в Индии, где deepfake была впервые использована в полной мере. Или Габон – крошечная страна в Африке – где страх перед подделками использовался для начала переворота. Deepfake уже дестабилизирует мир, и остановить его, по сути, невозможно.

3. Deepfake и ИИ созданы, чтобы самосовершенствоваться

Большинство людей думают, что истинная опасность подделок и других приложений ИИ заключается в том, что они могут совершить. Выпуски новостей все пополняются сюжетами о вмешательстве в выборы по всему миру, и все мы смотрели фильмы в жанре киберпанка, чтобы представлять, как далеко все это может зайти.

Тем не менее, как скажут многие эксперты, deepfake и ИИ пугают не просто своими способностями, а тем, как они делают то, что делают. Машинное обучение является одним из самых инновационных изобретений нашего времени, и способность использовать свои собственные данные, чтобы совершенствовать себя и наблюдать за окружающим миром, и делает deepfake и ИИ настолько опасными.

Голливудский искусственный интеллект просто стал бы жуликом, вооружался и пытался убить всех. Реальный ИИ, с другой стороны, сможет просчитать все результаты, прежде чем принимать какое-либо решение. Если замена политического лидера служит его целям лучше, чем прямое вооруженное восстание, он пойдет именно по этому пути, а потом станет еще опытнее при выборе будущих направлений.

2. Движущиеся фотографии

Если вы знакомы со вселенной Гарри Поттера, вы помните, что все фотографии в этом мире постоянно находятся в движении. Для тех, кто не знаком с киноэпопеей, уточним, что в этом нет ничего сложного; это просто волшебство. Имейте в виду, они не аналогичны анимированным фоторамкам или любому другому типу видео в реальном мире. Фотографии в волшебном мире Гарри Поттера имеют свои особенности и даже взаимодействуют с другими живыми персонажами.

Хотя на разработку чего-то подобного еще потребуется несколько больше времени, deepfake, возможно, вскоре сможет заставить изображения двигаться. Разработчики в Samsung изобрели технологию, использующую искусственный интеллект и искусственные маски, которые могут заставить любое лицо на изображении двигаться.

1. У нас нет способов противостоять этому

После всех тревожных сообщений можно было бы подумать, что наша инфраструктура кибербезопасности будет работать сверхурочно, чтобы противостоять угрозе развития ИИ, так как мошенники представляют серьезную опасность для всех. Проблема, однако, в том, что мы вообще не знаем, как действовать.

В настоящее время у нас просто нет возможности отсеять – или даже точно обнаружить без обширной экспертизы – поддельные изображения или видео из Интернета. У нас нет программного обеспечения или алгоритма, чтобы точно сказать, было ли что-то создано искусственным интеллектом или старым добрым Photoshop. Это классический случай, когда технологии развиваются быстрее, чем это можно было бы регулировать.

Даже если бы у нас был точный способ обнаружения deepfake, установить намерение еще сложнее. Как вы различаете отредактированный мем с безобидной шуткой и преднамеренно разработанную онлайн-кампанию иностранной державы, призванную дестабилизировать страну? У вас может быть четкий ответ на этот вопрос, но есть большая вероятность, что это не будет достаточным аргументом в суде. Даже если бы мы поняли это, как мы можем привлечь кого-то к ответственности за безымянное, сгенерированное машиной видео в Интернете?

Из-за наших трудностей с категоризацией и пресечением преступлений, связанных с мошенничеством, очень мало возможностей что-либо сделать. Deepfake сегодня опасно развита и способна делать то, что мы не могли даже два года назад. А мы все еще придумываем, как ее остановить.

01:35
403