Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани Страница 25
- Категория: Компьютеры и Интернет / Прочая околокомпьтерная литература
- Автор: Нума Дхамани
- Страниц: 91
- Добавлено: 2026-03-23 09:12:48
Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту pbn.book@yandex.ru для удаления материала
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани краткое содержание
Прочтите описание перед тем, как прочитать онлайн книгу «Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани» бесплатно полную версию:НЕЗАКОННОЕ ПОТРЕБЛЕНИЕ НАРКОТИЧЕСКИХ СРЕДСТВ, ПСИХОТРОПНЫХ ВЕЩЕСТВ, ИХ АНАЛОГОВ ПРИЧИНЯЕТ ВРЕД ЗДОРОВЬЮ, ИХ НЕЗАКОННЫЙ ОБОРОТ ЗАПРЕЩЕН И ВЛЕЧЕТ УСТАНОВЛЕННУЮ ЗАКОНОДАТЕЛЬСТВОМ ОТВЕТСТВЕННОСТЬ.
Технология, меняющая мир:
• Принципы работы больших языковых моделей (LLM).
• Интеграция ИИ в личные и профессиональные процессы.
• Влияние ИИ на общество, право и политику.
• Перспективы развития технологии.
Узнайте, как использовать возможности искусственного интеллекта с максимальной пользой и минимальными рисками.
Что еще в книге:
• Возможности и ограничения моделей ИИ.
• Рекомендации по их использованию.
• Способы защиты себя и своих данных.
• Принципы работы LLM.
• Лучшие практики генерации текста и графики.
В формате PDF A4 сохранен издательский макет книги.
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читать онлайн бесплатно
Как показано на рис. 4.3, цель преступника (генератора) – создать поддельные произведения искусства, неотличимые от настоящих, тогда как цель владельца магазина (дискриминатора) – уметь отличать настоящие произведения искусства от поддельных. Такой состязательный цикл обратной связи является основной идеей GAN. Генератор предназначен для создания новых данных, таких как изображения, а дискриминатор проверяет их подлинность, сравнивая с обучающим набором данных, чтобы определить разницу между поддельным и реальным изображением. Конечной целью генеративной сети является создание изображений, неотличимых от подлинных реальных изображений.
Рис. 4.3. Работа GAN с использованием генератора и дискриминатора
4.1.2. Что плохого и что хорошего в синтетических медиа
В отчете Samsung NEXT «Мир синтетических медиа» утверждается, что «эти технологии изменят привычные способы производства, потребления и распространения контента». Заявлено, что синтетические медиа – это третья стадия эволюции медиа. Во времена первых, старых медиа, основанных на широком вещании, лишь немногие могли распространять информацию через телевидение, радио и печать. Вторые, новые медиа, возникли при появлении интернета и обеспечили демократизацию распространения информации для всех через социальные сети. Третьи, синтетические медиа, появились благодаря технологиям ИИ и глубокого обучения, и они предоставляют возможность всем творить и создавать медиа. В отчете Samsung подчеркивается важный момент – синтетические медиа позволят демократизировать создание контента5. Теперь любой желающий при небольших затратах сможет создать высококачественный контент. Это дает больше возможностей творцам, не связанным с крупными компаниями, поскольку они могут применять технологии синтетических медиа для создания изображений/видео и воплощать свои идеи в жизнь, не привлекая большие бюджеты для съемок. Как мы обсудим в следующем разделе, мы считаем, что синтетические медиа приведут к новой волне творчества и искусства.
Еще одним потенциальным преимуществом синтетических медиа является их способность анонимизировать фотографии и видео и тем самым повышать конфиденциальность. Мы можем также использовать технологии синтетических медиа для анонимизации своих лиц на изображениях и видео с камер в общественных местах, магазинах и в аккаунтах социальных сетей. Анонимизация лиц может быть использована для защиты конфиденциальности с сохранением полезности данных.
С другой стороны, ИИ-сгенерированный контент может стать причиной обеспокоенности. Ту же самую технологию можно использовать для создания вредоносного контента (текст, видео, изображение или речь). Злоумышленники могут намеренно распространять вводящие в заблуждение и вредоносные материалы, которые будут нарушать систему понятий, вызывать разногласия и подрывать наше доверие к научным, социальным, политическим и экономическим институтам. Феномен «увидеть – значит поверить» может способствовать более быстрому распространению измененных или поддельных изображений и видео. В связи с этим в докладе под названием «Дипфейки: надвигающийся вызов конфиденциальности, демократии и социальной безопасности» исследователи выявили заметную опасность, которую они назвали «дивидендами лжеца». Идея заключается в том, что чем больше широкая общественность осознает, насколько убедительными могут быть синтетические медиа, тем более скептично она относится к подлинности традиционных реальных документальных свидетельств6. В главе 5 мы подробно обсудим дезинформацию и ее последствия для отдельных людей и общества.
Синтетические медиа также печально известны тем, что используются для создания порнографических видеороликов о знаменитостях, мести путем размещения порнографии, киберсексуальных домогательств, а также для мошенничества и шпионажа. Дипфейки также могут использоваться, чтобы выдавать себя за уполномоченное лицо для совершения финансовых операций, а также для нарушения кибербезопасности, например, создания поддельных финансовых отчетов или демонстрации, что руководитель совершил преступление. Наконец, для рекламы бренда могут искусственно генерироваться изображения знаменитостей, что приводит к потере доходов от интеллектуальной собственности (ИС). Позже в этой главе мы продолжим обсуждение вопросов интеллектуальной собственности и авторского права в данном контексте.
4.1.3. ИИ или человек: как выявлять синтетические медиа
Сейчас предпринимаются различные усилия для выявления синтетических медиа. В начале 2023 года OpenAI выпустила промежуточную версию классификатора, который способен различать текст, написанный машиной и человеком, чтобы снизить, помимо прочего, опасения по поводу проведения автоматизированных кампаний по дезинформации. Они признали, что их «классификатор не является надежным»; он выявляет текст, написанный ИИ, только в 26 % случаев (истинные срабатывания) и ошибочно помечает текст, написанный человеком, как ИИ-сгенерированный в 9 % случаев (ложное срабатывание). По состоянию на 20 июля 2023 года классификатор был закрыт из-за его низкой точности7.
Исследователи в этой области тестировали различные методы обнаружения изображений, видео и речи, созданных или обработанных машиной, как то цифровой, физический и семантический анализ. В рамках программы DARPA MediFor (Media Forensics) [43]исследователи разработали индикаторы манипуляций с изображением, выявляя артефакты в пиксельном представлении, несоответствия в физическом окружении в сочетании с семантическим анализом медиа8. Есть ли какие-либо ошибки на уровне пикселей? Например, размытые края или повторяющиеся пиксели? Что касается физической среды, то смотрят, не нарушены ли где-то законы физики: соответствуют ли тени, отражения и освещение законам природы? Наконец, обращают внимание на семантическую целостность, которая помогает определить, не является ли контекстуальная информация, относящаяся к изображению, противоречивой или непоследовательной. Например, было ли изображение вырвано из контекста или видоизменено? Есть ли какие-то несоответствия по дате или времени?9 Вслед за этой программой была выпущена DARPA SemaFor (Semantic Forensics), нацеленная не только выявлять обработанные медиа, но и определять, были ли они сгенерированы или обработаны в злонамеренных целях, и даже устанавливать причастность отдельного лица или организации к их созданию10.
Также проводились многочисленные исследования по обнаружению замены лиц с помощью анализа неоднородности фоточувствительности (photo response nonuniformity, PRNU) [44], 11 и артефактов качества изображения12, неконсистентности характеристик лица, а также физиологических сигналов [45], 13. Эти методы подают много надежд, но часто ограничены по своей сути и могут выполнять только обнаружение манипуляций с лицом в специально отобранных наборах данных. Одно исследование показало, что сгенерированные лица можно распознать по неправильной форме зрачков, однако предположение, что зрачок всегда должен
Жалоба
Напишите нам, и мы в срочном порядке примем меры.