Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани Страница 37
- Категория: Компьютеры и Интернет / Прочая околокомпьтерная литература
- Автор: Нума Дхамани
- Страниц: 91
- Добавлено: 2026-03-23 09:12:48
Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту pbn.book@yandex.ru для удаления материала
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани краткое содержание
Прочтите описание перед тем, как прочитать онлайн книгу «Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани» бесплатно полную версию:НЕЗАКОННОЕ ПОТРЕБЛЕНИЕ НАРКОТИЧЕСКИХ СРЕДСТВ, ПСИХОТРОПНЫХ ВЕЩЕСТВ, ИХ АНАЛОГОВ ПРИЧИНЯЕТ ВРЕД ЗДОРОВЬЮ, ИХ НЕЗАКОННЫЙ ОБОРОТ ЗАПРЕЩЕН И ВЛЕЧЕТ УСТАНОВЛЕННУЮ ЗАКОНОДАТЕЛЬСТВОМ ОТВЕТСТВЕННОСТЬ.
Технология, меняющая мир:
• Принципы работы больших языковых моделей (LLM).
• Интеграция ИИ в личные и профессиональные процессы.
• Влияние ИИ на общество, право и политику.
• Перспективы развития технологии.
Узнайте, как использовать возможности искусственного интеллекта с максимальной пользой и минимальными рисками.
Что еще в книге:
• Возможности и ограничения моделей ИИ.
• Рекомендации по их использованию.
• Способы защиты себя и своих данных.
• Принципы работы LLM.
• Лучшие практики генерации текста и графики.
В формате PDF A4 сохранен издательский макет книги.
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читать онлайн бесплатно
К многообещающим способам борьбы с манипуляционными кампаниями относятся мероприятия по повышению медиаграмотности и просвещению. Хотя сами по себе они не приведут к разрешению кризиса, но в сочетании с другими стратегиями могут быть эффективны. Успешная кампания по повышению медиаграмотности должна привести к развитию избирательного доверия, которое уменьшается по отношению к ложным новостям и увеличивается по отношению к правдивым сведениям. Для обучения людей медиаграмотности и навыку по выявлению дезинформации необходимо создать сетевую инфраструктуру, которая позволит ориентироваться на различные аудитории, привлекать ценных ключевых участников, выявлять тех, кто наиболее уязвим, реагировать на это и обеспечивать взаимную поддержку между всеми организациями37. Мы знаем, что свою эффективность уже доказало обучение людей следующим методам: латеральное чтение38, ключевая идея которого заключается в оценке достоверности как самого источника, так и содержания, в том числе с помощью других источников; метод SIFT39, описывающий шаги по оценке источника и отслеживанию утверждений до момента их происхождения. Усилия по повышению медиаграмотности, а также нормативно-правовая база могут помочь найти выход не только для самой онлайн-экосистемы, но и для людей, которые ее используют.
В Соединенных Штатах продолжаются споры о регулировании того, подпадает ли генерируемая с помощью искусственного интеллекта речь под защиту от ответственности раздела 230 Закона о пристойном поведении в СМИ. Раздел 230, который часто называют «самым важным законом интернета»40, позволяет платформам (и любой организации, управляющей онлайн-пространством, где третьи лица могут размещать контент) размещать высказывания пользователей, не неся юридической ответственности за это41. В деле «Гонсалес против Google» судья Верховного суда Нил Горсач использовал ИИ-сгенерированный текст в качестве примера ситуации, когда платформы не попадают под защиту раздела 230 [69], 42. Вскоре после этого законодатели, которые работали над разделом 230, высказали мнение, что технологии генеративного ИИ не должны подпадать под его защиту43. Если тексты от генеративных моделей ИИ, таких как ChatGPT и Bard, действительно не подпадают под действие раздела 230, то компании, вероятно, будут нести ответственность за такой контент, что может побудить их встраивать дополнительные меры безопасности в модели.
С технической точки зрения возможности отличать сгенерированные с помощью ИИ или человека тексты – это важный шаг для предотвращения ненадлежащего использования контента, сгенерированного с помощью LLM. Такая возможность в дальнейшем поможет оценить воздействие генеративных языковых моделей на кампании по манипуляции. GLTR (см. http://gltr.io/), созданный MIT-IBM Watson AI Lab и Harvard NLP, – это визуальный инструмент судебной экспертизы для обнаружения ИИ-сгенерированного текста с помощью тех же моделей, которые создают поддельный текст. Этот инструмент способен выявлять только отдельные случаи, а не масштабные злоупотребления, однако он служит полезным примером использования LLM для усовершенствования технологии обнаружения сгенерированного с помощью ИИ контента. Исследования, в которых языковые модели используются для выявления ИИ-сгенерированного текста, показывают, что люди-оценщики гораздо менее точно справляются с задачей по выявлению такого текста по сравнению с моделями глубокого обучения44. Кроме методов классификации с учителем, исследователи экспериментировали с новыми методами обнаружения сгенерированного с помощью ИИ текста, такие как обучения без учителя45 и графовые нейронные сети46. Методы глубокого обучения также завоевали популярность в решении задачи по обнаружению ложных сведений и дезинформации47. Специально для обнаружения дезинформации с помощью языковых моделей были разработаны LLM с интегрированными базами знаний (такими как Wikidata), которые показали свою эффективность при работе со статическим набором данных48.
Для надлежащего решения этой проблемы необходимы дальнейшие исследования того, как теперь проводятся кампании по манипуляции мнением и дезинформации с использованием ИИ, а также изучение эффективности методов противодействия и обнаружения. Наконец, для устранения рисков злоупотребления генеративными ИИ-моделями важное значение имеет совместная реакция платформ социальных сетей, компаний, занимающихся искусственным интеллектом, правительств и гражданского общества. Рабочая группа, возглавляемая Клэр Уордл, предложила следующую рекомендацию для борьбы с манипуляционными кампаниями – создать постоянный международный институт для мониторинга и изучения информационных проблем, который должен работать независимо от правительства и платформ, а финансироваться централизованно37. Дезинформация – глобальное и кроссплатформенное явление, которое будет только разрастаться по мере использования генеративных языковых моделей, однако ответные меры в основном сфокусированы на национальном или региональном уровнях и часто даже на конкретной платформе. Но дезинформация – проблема не только платформ, поэтому постоянно действующий независимый орган требовал бы прозрачности как от платформ, так и от правительств, уделял особое внимание информационной среде в целом и работал над повышением глобальной устойчивости.
5.3. Политическая предвзятость и предвыборная агитация
Кроме операций влияния, LLM могут использоваться в таких «серых» областях, как предвыборная агитация и создание идеологизированного контента. Как упоминалось в предыдущем разделе, за последние несколько лет распространение ложной информации стало предметом пристального внимания, и все крупные платформы социальных сетей внедрили определенные правила в отношении дезинформации. В некоторых случаях манипуляции легко обнаружить, но на практике часто бывает невероятно сложно определить, является ли конкретный фрагмент контента ложной информацией или дезинформацией, а ответ может зависеть от того, кто оценивает. Тем не менее уже предприняты некоторые масштабные усилия по принятию мер, включая Кодекс мер против дезинформации (Code of Practice on Disinformation) в Европейском союзе – добровольные руководящие принципы, которым следуют стороны, подписавшие соглашение49. Эти методические принципы не устанавливают определенные стандарты для контента, а фокусируются на обеспечении доступа для исследователей и сторонних фактчекеров, а также на прозрачности рекламы. Идеологизированный контент, в котором может высказываться предвзятое положительное или отрицательное отношение к определенной точке зрения, при условии, что это не нарушает политику в отношении контента, полностью разрешен и фактически является важным компонентом свободы выражения мнения на платформах.
Использование чат-ботов, бесспорно, имеет особенности в сравнении с социальными сетями, но есть несколько общих черт. Разработчики LLM, как и социальных сетей, должны чувствовать необходимость установить политику в отношении того, что их чат-боты могут говорить, а что нет, включая воспроизведение дезинформации, пропаганды или просто пристрастных взглядов из интернета. Однако эти компании, как и разработчики социальных сетей, вскоре обнаружат, что, устанавливая границы, не могут угодить всем. Кроме того, из-за вероятностного характера ответов LLM разработчикам может быть очень сложно определить, почему модель ответила на вопрос именно таким образом, и, следовательно, им также будет сложно повлиять на будущие ответы LLM.
После выхода ChatGPT консерваторы в Соединенных Штатах
Жалоба
Напишите нам, и мы в срочном порядке примем меры.