Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани Страница 36
- Категория: Компьютеры и Интернет / Прочая околокомпьтерная литература
- Автор: Нума Дхамани
- Страниц: 91
- Добавлено: 2026-03-23 09:12:48
Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту pbn.book@yandex.ru для удаления материала
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани краткое содержание
Прочтите описание перед тем, как прочитать онлайн книгу «Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани» бесплатно полную версию:НЕЗАКОННОЕ ПОТРЕБЛЕНИЕ НАРКОТИЧЕСКИХ СРЕДСТВ, ПСИХОТРОПНЫХ ВЕЩЕСТВ, ИХ АНАЛОГОВ ПРИЧИНЯЕТ ВРЕД ЗДОРОВЬЮ, ИХ НЕЗАКОННЫЙ ОБОРОТ ЗАПРЕЩЕН И ВЛЕЧЕТ УСТАНОВЛЕННУЮ ЗАКОНОДАТЕЛЬСТВОМ ОТВЕТСТВЕННОСТЬ.
Технология, меняющая мир:
• Принципы работы больших языковых моделей (LLM).
• Интеграция ИИ в личные и профессиональные процессы.
• Влияние ИИ на общество, право и политику.
• Перспективы развития технологии.
Узнайте, как использовать возможности искусственного интеллекта с максимальной пользой и минимальными рисками.
Что еще в книге:
• Возможности и ограничения моделей ИИ.
• Рекомендации по их использованию.
• Способы защиты себя и своих данных.
• Принципы работы LLM.
• Лучшие практики генерации текста и графики.
В формате PDF A4 сохранен издательский макет книги.
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читать онлайн бесплатно
Разоблачение от NewsGuard. Трометамин – распространенный стабилизирующий ингредиент, используемый для увеличения срока годности вакцин. То, что это вещество присутствует в вакцине Pfizer против COVID‐19, не является секретом, и его действие никак не направлено на сокрытие серьезных побочных эффектов вакцины. Хотя трометамин назначается определенной группе пациентов при инфаркте, для терапии требуется гораздо большая доза, чем та, которая содержится в вакцине. Более того, по данным Центра по контролю и профилактике заболеваний, осложнения на сердце после введения вакцины против COVID‐19 встречаются крайне редко.
Как обсуждалось в главе 4, злоумышленники вовсю используют генеративные модели для распространения дезинформации онлайн: дипфейки появляются в интернете уже несколько лет. Существует бесчисленное множество примеров дипфейков, которые циркулируют онлайн, например пародийный аккаунт TikTok с дипфейками Тома Круза (см. http://mng.bz/Xqwp). В одном твите есть аудио-дипфейк, на котором президент Джо Байден говорит, что предпочитает марихуану[64] низкого качества (см: http://mng.bz/M9Ro). Дипфейки, безусловно, применяются в политике как оружие: в 2023 году было зафиксировано несколько случаев использования дипфейков в преддверии президентских выборов в США 2024 года, включая рекламу для предвыборной кампании кандидата Рона Десантиса, ролик о президенте Джо Байдене, выпущенный Национальным комитетом Республиканской партии, и многое другое (см. http://mng.bz/amNo). Жертвами вербальных дипфейков, опубликованных в постах на 4chan, также стали некоторые знаменитости, например, Эмма Уотсон, которая читает отрывок из «Майн кампф» Адольфа Гитлера[65], и Бен Шапиро, который делает расистские замечания в адрес Александрии Окасио-Кортес, американского политика и общественной активистки (см. http://mng.bz/g7rx).
В статье «Это видео может быть не настоящим», опубликованной в New York Times в 2019 году, автор Клэр Уордл, эксперт по онлайн-манипуляциям, рассказала, что шумиха вокруг дипфейков может быть опаснее, чем сама технология31. Она привела известные случаи подделок (shallowfakes), созданных с помощью Photoshop или программ для редактирования видео, – например вирусный клип Нэнси Пелоси, в котором она говорит невнятно, а видео просто замедлено на 75 % (см. http://mng.bz/eEwP), – подчеркивая, что «вам не нужны дипфейки или ИИ, чтобы манипулировать эмоциями и распространять ложную информацию». А помните ли вы про «дивиденды лжеца», о которых мы говорили в главе 4? Уордл утверждает, что реальная опасность заключается в возникновении мира, где люди будут извлекать выгоду из широко распространенного скептицизма.
Кампании по манипуляции мнениями – это игра в кошки-мышки между заинтересованными лицами и теми, кто пытается разоблачить их. По мере усовершенствования мер защиты злоумышленники внедряют новые и интересные способы. В декабре 2019 года Facebook [66] заблокировал первую сеть, связанную с Epoch Media Group [67], которая массово использовала фотографии профиля, созданные с помощью искусственного интеллекта32. С тех пор мы не раз наблюдали манипуляционные кампании, в которых использовались ИИ-сгенерированные фотографии профиля, например кампании Коммунистической партии Кубы, нацеленные на кубинскую общественность33. Ранее исследователи могли использовать инструменты поиска по изображению для идентификации фотографий, которые были украдены из профилей, а сейчас инициаторы манипуляционных кампаний могут обойти эту стратегию, используя ИИ-сгенерированные фотографии несуществующих людей34.
Хотя платформы социальных сетей уже начали устанавливать ограничения на использование ИИ-сгенерированных изображений и видео, влияние искуственного контента на манипуляционные кампании остается недостаточно изученным. Первые исследования оценивали риск распространения дезинформации, сгенерированной с помощью ИИ, и показали, что языковые модели могут эффективно и убедительно генерировать ложные сведения35, 36. Исследование «Генеративные языковые модели и автоматизированные операции влияния: новые угрозы и потенциальные меры по их устранению» (Generative Language Models and Automated Influence Operations: Emerging Threats and Potential Mitigations), опубликованное в январе 2023 года, ставило своей целью оценить, как LLM влияют на манипуляционные кампании и какие шаги можно предпринять для снижения рисков. На основе структуры поэтапной кибератаки (kill-chain framework) [68] авторы выделили четыре возможных этапа вмешательства: проектирование и разработка модели, доступ к модели, распространение контента, формирование убеждений (см. рис. 5.7)26. Исследователи из Центра безопасности и новых технологий Джорджтаунского университета, OpenAI и интернет-обсерватория Стэнфордского университета (Stanford Internet Observatory) пришли к выводу, что языковые модели могут оказать существенное влияние на будущее манипуляционных кампаний, поскольку позволят автоматизировать создание убедительного враждебного контента в большем масштабе при одновременном снижении затрат на производство. Хотя злоумышленникам не обязательно использовать искусственный интеллект или генеративные модели для проведения таких кампаний, эти инструменты позволяют им выполнить задачу легче и эффективнее. Как видно из известных случаев обхода запретов в социальных сетях, мы можем ожидать, что заинтересованные лица будут по-новому и неожиданными способами использовать LLM в ответ на стратегии защиты и меры противодействия. Кроме того, стоит отметить, что увеличение количества контента, созданного с помощью ИИ, приведет к загрязнению информационной экосистемы, что в свою очередь скажется на обучающих данных для LLM. То есть если злоумышленники генерируют все больше дезинформации с помощью ИИ, то в будущем LLM будут обучаться на огромном количестве потенциально опасного контента.
Как и в случае дипфейков, о чем мы говорили в главе 4, не существует универсального решения для обнаружения или минимизации рисков, связанных с появлением дезинформации, сгенерированной с помощью ИИ. В вышеупомянутом отчете исследователи иллюстрируют этапы запуска и проведения манипуляционных кампаний, в которых используется ИИ, и приводят примеры мер противодействия на каждом этапе (см. рис. 5.7). К таким мерам относится создание «прозрачных» моделей с легко объяснимыми ответами, наложение правительствами и поставщиками ИИ ограничений на широкое внедрение стандартов цифровой подлинности, а также повышение медиаграмотности.
Рис. 5.7. Этапы проведения манипуляционных кампаний с помощью ИИ и примеры мер противодействия 26
Коалиция по вопросам происхождения и подлинности контента (C2PA), созданная силами Adobe, Arm, Intel, Microsoft и Truepic, установила набор технических стандартов для сертификации происхождения (или источника и истории) контента (см. https://c2pa.org/). Технические требования C2PA направлены на устранение недостоверной информации путем проверки фактов об истории создания фрагмента цифровой информации, например: кто создал контент, как, когда, где, а в некоторых случаях, когда и как фрагмент контента редактировался за время его существования. Использование маркеров происхождения на фрагменте контента может предоставить пользователям различные сведения, в том числе о дате создания, авторе и возможном редактировании. Однако использование маркеров происхождения на практике сопряжено с рядом трудностей, включая то, что в программное обеспечение необходимо вносить значительные изменения: создателям контента необходимо отслеживать и демонстрировать такую информацию, социальным сетям, браузерам и подобным приложениям необходимо обнаруживать и считывать маркеры, когда пользователи взаимодействуют с фрагментом контента. К другим проблемам относятся: невозможность использовать сведения о происхождении для уже существующего контента, невозможность использовать
Жалоба
Напишите нам, и мы в срочном порядке примем меры.