Экстремальная угроза репутации: что такое DeepFakes?
В этой статье речь пойдет об этой проблеме в первую очередь в бизнес-конексте: влияние на корпоративную культуру, подбор персонала на топ-должности и принятия стратегических управленческих решений в компании. Однако это явление показалось мне очень актуальным в свете текущей избирательной компании в Украине.
Как Вы поняли из заголовка речь идет о таком явлении в развитии искусственного интеллекта как DeepFakes. Небольшая справка:
Deepfake — методика синтеза изображения человека, основанная на искусственном интеллекте. Она используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. DeepFake могут быть использованы для создания поддельных новостей и вредоносных обманов.
За появление этой технологии мы должны быть благодарны порноиндустрии, однако там она нашла самое безобидное из возможных применений. А вот в сфере массовых коммуникаций и в сфере корпоративных коммуникаций DeepFake может представлять серьезную угрозу.
Пока это не актуально для украинских бизнес-реалий и украинской политики, но мы любим в наших публикациях заглядывать в ближайшее будущее. Когда мы с Вами с этим столкнемся в жизни, то будем готовы адекватно на это реагировать.
Кая я уже сказал статья была опубликована в Harward Business Rewiew и ее авторы Aviv Ovadya, Hal Bienstock. Приятного чтения.
После публичного протеста против неприкосновенности частной жизни и их неспособности — или нежелания – противодействовать «фейковому» контенту, Facebook, Twitter и другие платформы социальных сетей, наконец, начинают предпринимать настоящие усилия, чтобы взяться за поддельные новости. Но манипулирующие посты от пользователей из России или из других стран могут скоро стать наименьшей из наших проблем. То, что надвигается, не просто повлияет на наши выборы. Это повлияет на нашу способность доверять всему тому, что мы видим и слышим.
Дезинформация, о которой сегодня беспокоятся люди, например, тенденциозные новостные сюжеты или конспирологические теории, — это лишь первые признаки того, что может превратиться в полномасштабную эпидемию. То, что происходит, это DeepFakes («глубокие подделки») — реалистичное представление того, что люди якобы говорят или делают — чего на самом деле никогда не было. Это пугающее будущее является побочным эффектом развития искусственного интеллекта, который позволил исследователям манипулировать аудио и видео — даже «живым» видео.
Конечным результатом этой управляемой реальности может быть то, что люди перестанут верить в то, что они слышат от мирового лидера, знаменитости или генерального директора. Это может привести к «апатии реальности», когда так трудно отличить правду от лжи, что мы перестаем пытаться вообще это сделать. Это означает будущее, в котором люди верят только тому, что они слышат из небольшого круга доверенных друзей или семьи. Но это совершенно не похоже на современную глобальную экономику, в которой мы все живем.
Очевидным сценарием, с которым некоторые компании могут столкнуться в недалеком будущем, является поддельное видео их генерального директора, делающего расистские или сексистские комментарии, или подкупающего политика.
Представьте себе кажущееся подлинным видео генерального директора, в котором говорится, что их компания пожертвует 100 миллионов долларов, чтобы накормить голодающих детей. Это неожиданное объявление, которое на самом деле никогда не происходило, ставит компанию перед суровым выбором: сделать пожертвование на самом деле или публично заявить, что вас не беспокоит судьба голодающих детей.
Поскольку корпоративные лидеры сталкиваются с вопросом о том, как доказать, что что-то реально (или не имело место в реальности), им нужно будет инвестировать в новые технологии, которые помогут им на один шаг опередить недоброжелателей или конкурентов, прибегнувших к такой грязной игре. И им нужно будет сделать это быстро. Компания не сможет опережать искусных, технически подготовленных манипуляторов, если у нее планирование привязано к годовому циклу.
Одним из важных шагов является то, что платформы социальных сетей включают в себя обнаружение подделок в режиме реального времени во всех своих продуктах, создавая системы, которые могут адаптироваться с улучшением технологии. Но эта технология все еще находится на ранней стадии, и по мере ее развития вы можете быть уверены, что манипуляторы будут работать над тем, как преодолеть ее.
Также может быть создано программное обеспечение, которое может записывать видео и аудио, показывая, когда они были созданы, и как они были обработаны. Но полагаться на технологический сектор, чтобы быстро решать социальные проблемы, подобные этим, уже не сможет сработать так хорошо, как оно работало в прошлом.
Корпоративные маркетологи и коммуникаторы – как люди, которые поставляют платформам социальных сетей деньги — их жизненную силу, находятся на острие атаки.
В прошлом году P&G потратила $ 140 млн на рекламные акции, отчасти из-за проблем безопасности бренда, которые возникли, когда его реклама была размещена рядом с сомнительным контентом.
Вы можете возразить, что это произошло, так как внимание обратили компании-платформы социальных сетей. Но это сработало только потому, что P&G был готов поддержать свои слова действиями. Платформы более склонны принимать активные меры, если они знают, что бездействие повредит их прибыльности. Отраслевое давление помогло YouTube, например, переоценить свою политику в отношении контента и резко увеличить инвестиции в модерирование «живыми людьми».
Отрасли часто формируют коалиции, чтобы влиять на правительственные регулирующие органы, влияющие на их деловые интересы. По аналогии с некоторыми из крупнейших технологических компаний, которые начинают соперничать с правительствами по своим возможностям и мощности, такую же модель можно использовать здесь, используя угрозу потерянного дохода от рекламы. Эти коалиции могут оказаться полезными для партнерства с группами потребителей и неправительственными объединениями, чтобы усилить месседж. Стремление этих платформ серьезно относиться к возможной дезинформации было бы неплохо не только для корпораций, но и для общества в целом.
Кроме того, компании должны начать рассматривать Deep Fakes и другие методы искажения реальности как факторы в своем планировании сценариев кризиса. Защита репутации в этом новом мире потребует добавления нового слоя к стратегиям быстрого реагирования и коммуникациям компании. Руководители должны быть готовы быстро обнародовать факты и исправить фикции, прежде чем они распространятся слишком далеко.
Коммуникаторы должны убедиться, что у них есть подходящие инструменты для решения быстро развивающегося кризиса с манипулируемой реальностью. Ключом к раскрытию обмана может быть кто-то, использующий геолокацию или просто свои собственные знания, чтобы доказать, что уличный знак в поддельном видео на самом деле не находится в этом месте. Как и в случае любого кризиса, инструменты аналитики в области социальных медиа имеют решающее значение, когда речь идет об отслеживании распространения дезинформации. Эти инструменты могут помочь руководителям посмотреть, действительно ли история набирает силу и идентифицировать наиболее влиятельных людей, распространяющих дезинформацию, действующих осознанно или невольно.
Крайне важно, чтобы отдельные компании научились понимать и смягчать свои конкретные риски, но эти усилия сами по себе не защитят их. Наша информационная экосистема похожа на игру, где обманщики имеют огромное преимущество; компания может потерять, даже если она «играет» отлично. Вот почему нам нужно исправить правила.
Мы все должны участвовать в поддержке объединений компаний, межотраслевых и даже межсекторальных усилий, чтобы переломить ситуацию. На всех, кто заинтересован в обществе, основанном на реальности, будет работать сообща, чтобы мы могли продолжать отличать факты от фикции.
Источник: ucg.in.ua