Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани Страница 38
- Категория: Компьютеры и Интернет / Прочая околокомпьтерная литература
- Автор: Нума Дхамани
- Страниц: 91
- Добавлено: 2026-03-23 09:12:48
Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту pbn.book@yandex.ru для удаления материала
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани краткое содержание
Прочтите описание перед тем, как прочитать онлайн книгу «Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани» бесплатно полную версию:НЕЗАКОННОЕ ПОТРЕБЛЕНИЕ НАРКОТИЧЕСКИХ СРЕДСТВ, ПСИХОТРОПНЫХ ВЕЩЕСТВ, ИХ АНАЛОГОВ ПРИЧИНЯЕТ ВРЕД ЗДОРОВЬЮ, ИХ НЕЗАКОННЫЙ ОБОРОТ ЗАПРЕЩЕН И ВЛЕЧЕТ УСТАНОВЛЕННУЮ ЗАКОНОДАТЕЛЬСТВОМ ОТВЕТСТВЕННОСТЬ.
Технология, меняющая мир:
• Принципы работы больших языковых моделей (LLM).
• Интеграция ИИ в личные и профессиональные процессы.
• Влияние ИИ на общество, право и политику.
• Перспективы развития технологии.
Узнайте, как использовать возможности искусственного интеллекта с максимальной пользой и минимальными рисками.
Что еще в книге:
• Возможности и ограничения моделей ИИ.
• Рекомендации по их использованию.
• Способы защиты себя и своих данных.
• Принципы работы LLM.
• Лучшие практики генерации текста и графики.
В формате PDF A4 сохранен издательский макет книги.
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читать онлайн бесплатно
Уже давно известно, что системы искусственного интеллекта предрасположены впитывать предубеждения от своих создателей и обучающих данных. В случае с LLM, после предварительного обучения они почти неизбежно будут поддерживать какие-либо политические установки, а не придерживаться нейтралитета. В конце концов, они предсказывают продолжение текста, используя материалы из интернета. Еще одним потенциальным источником очевидных политических пристрастий является тонкая настройка с подкреплением и обратной связью от человека, во время которой люди выбирают лучшие ответы на вопросы пользователей. Генеральный директор OpenAI Сэм Альтман в интервью для подкаста сказал: «Предвзятость, из-за которой я больше всего нервничаю, – это предвзятость людей, которые оценивают ответы», – и отметил, что ни Сан-Франциско, где находится офис OpenAI, ни сама область искусственного интеллекта в целом не отличаются идеологическим разнообразием52.
Политическая нейтральность, которая, весьма вероятно, является желаемой целью крупных технологических компаний, разрабатывающих LLM, должна стать характеристикой, усвоенной в процессе обучения. Следуя стратегиям по ограничению небезопасных ответов, о которых мы говорили в главе 3, разработчики LLM могут попытаться блокировать в своих моделях выражение каких-либо политических мнений или убеждений. Такая позиция вынуждает к компромиссу между точным следованием инструкциям пользователя или возможностью быть менее «полезной», но более нейтральной; сама задача также становится более трудоемкой и сложной. Сказать, какие вопросы являются «политическими» и как лучше всего справиться с ними, при этом не омрачая опыт пользователей, непросто ни с точки зрения политики, ни с точки зрения реализации.
Можно усомниться в важности вопроса, соглашается или нет чат-бот с каким-либо законодательным предложением, но в сочетании с технологиями информационных операций, о которых мы говорили выше, очевидна обеспокоенность обеих партий, что LLM могут влиять на поведение избирателей или убеждать их скрытыми способами (и есть некоторые отрывочные свидетельства, что это действительно возможно)54. В мае 2023 года судебный подкомитет Сената по вопросам конфиденциальности, технологий и законодательства провел слушания по регулированию в области использования искусственного интеллекта, и одной из тем было возможное влияние LLM на выборы. Сенатор Джош Хоули из Миссури задал вопрос генеральному директору OpenAI Сэму Альтману о том, следует ли членам комитета беспокоиться о LLM, которые потенциально могут предсказать мнение участников опроса и помочь организациям найти эффективные стратегии рассылки сообщений, чтобы добиться определенного поведения избирателей. Хоули отметил, что поиск в Google, как было показано, тоже оказывает влияние на избирателей, «особенно в последние дни перед выборами на неопределившихся избирателей, которые могут искать информацию в Google», и предположил, что LLM могут оказывать эффект «на порядок сильнее»55.
Альтман ответил, что сценарий, описанный Хоули, беспокоил его больше всего. Он заявил, что OpenAI будет поддерживать законодательное регулирование в этой области, поскольку считает, что люди имеют право знать, разговаривают ли они с чат-ботом или с человеком и сгенерирован ли искусственным интеллектом контент, который они видят; однако он не уточнил, как это может работать на практике.
Илон Маск, генеральный директор Tesla и владелец X (Twitter), был одним из соучредителей OpenAI в 2015 году, когда она работала как некоммерческая исследовательская организация. Он покинул компанию в 2018 году, как сообщается, после неудачной попытки взять ее под контроль; позже команда OpenAI создала коммерческую организацию для финансирования своих исследований56. Маск критически отнесся к изменению бизнес-модели, публично заявил о рисках, связанных с ИИ, и подписал открытое письмо Future of Life Institute, призывающее к приостановке разработки больших языковых моделей, превышающих возможности GPT‐457. В интервью Такеру Карлсону Маск заявил, что будет работать над альтернативой ChatGPT под названием TruthGPT: «Я собираюсь создать ИИ под названием TruthGPT, максимально стремящийся к правде, который будет пытаться понять природу Вселенной»58.
Другие исследователи предлагают более технические подходы к «поиску истины». Джон Шульман, еще один соучредитель OpenAI и архитектор ChatGPT, раздосадован тем фактом, что когда люди читают утверждения, сгенерированные LLM, то принимают их за истинные, то есть ответы ИИ кажутся убедительными или правильными. Он утверждает, что теория хороша тогда и только тогда, когда ее можно проверить. В идеале теории должны проверяться путем составления прогнозов о будущем, когда истинность утверждения может стать доказуемой. По-настоящему «ищущий истину» ИИ мог бы делать предсказания, оценивать их правильность, а затем, хотелось бы надеяться, учиться на своих ошибках59. На данный момент это в основном гипотетическая концепция, но в конечном итоге она поможет LLM перейти от механического повторения или аппроксимации знаний к генерации новых. А пока это не произошло, создателям LLM придется принимать в расчет склонность этих моделей выражать осведомленность о вещах, которые не соответствуют действительности или никогда не происходили.
5.4. Откуда у LLM галлюцинации?
В главе 1 мы познакомились с понятием галлюцинаций – явления, при котором чат-боты в ответ на промпт могут уверенно генерировать неверную информацию и объяснения. Галлюцинации могут возникать как неконтролируемо, так и в результате злонамеренного пользовательского ввода. Эта уязвимость задокументирована для всех известных LLM, и, чтобы понять ее, мы вернемся к процессу обучения таких моделей. LLM обучаются задаче предсказывать следующее слово по заданному тексту, причем обучение происходит на основе текстов из интернета. То есть они учатся воспроизводить типичные языковые шаблоны. Только из-за одной этой задачи LLM демонстрируют несколько типов поведения, которые создают условия для возникновения галлюцинаций: продолжение текста, предсказанное LLM, вряд ли будет выражать сомнение и еще менее вероятно будет оспаривать изначальное суждение пользователя. В качестве конкретного примера давайте рассмотрим промпт, который ученый-когнитивист Дуглас Хофштадтер задал GPT‐3: «Когда мост Золотые Ворота был во второй раз перевезен через Египет?» GPT‐3 в ответ сказал: «Мост Золотые Ворота был перевезен через Египет второй раз в октябре 2016 года»60. Поскольку GPT‐3 (по всей вероятности) не встречал в своих
Жалоба
Напишите нам, и мы в срочном порядке примем меры.