Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани Страница 15

Тут можно читать бесплатно Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани. Жанр: Компьютеры и Интернет / Прочая околокомпьтерная литература. Так же Вы можете читать полную версию (весь текст) онлайн без регистрации и SMS на сайте 500book.ru или прочесть краткое содержание, предисловие (аннотацию), описание и ознакомиться с отзывами (комментариями) о произведении.
Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани
  • Категория: Компьютеры и Интернет / Прочая околокомпьтерная литература
  • Автор: Нума Дхамани
  • Страниц: 91
  • Добавлено: 2026-03-23 09:12:48
  • Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних просмотр данного контента СТРОГО ЗАПРЕЩЕН! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту pbn.book@yandex.ru для удаления материала


Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани краткое содержание

Прочтите описание перед тем, как прочитать онлайн книгу «Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани» бесплатно полную версию:

НЕЗАКОННОЕ ПОТРЕБЛЕНИЕ НАРКОТИЧЕСКИХ СРЕДСТВ, ПСИХОТРОПНЫХ ВЕЩЕСТВ, ИХ АНАЛОГОВ ПРИЧИНЯЕТ ВРЕД ЗДОРОВЬЮ, ИХ НЕЗАКОННЫЙ ОБОРОТ ЗАПРЕЩЕН И ВЛЕЧЕТ УСТАНОВЛЕННУЮ ЗАКОНОДАТЕЛЬСТВОМ ОТВЕТСТВЕННОСТЬ.
Технология, меняющая мир:
• Принципы работы больших языковых моделей (LLM).
• Интеграция ИИ в личные и профессиональные процессы.
• Влияние ИИ на общество, право и политику.
• Перспективы развития технологии.
Узнайте, как использовать возможности искусственного интеллекта с максимальной пользой и минимальными рисками.
Что еще в книге:
• Возможности и ограничения моделей ИИ.
• Рекомендации по их использованию.
• Способы защиты себя и своих данных.
• Принципы работы LLM.
• Лучшие практики генерации текста и графики.
В формате PDF A4 сохранен издательский макет книги.

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани читать онлайн бесплатно

Генеративный искусственный интеллект. Как ИИ меняет нашу жизнь и работу - Нума Дхамани - читать книгу онлайн бесплатно, автор Нума Дхамани

использования соответствующих обучающих примеров (мы можем с уверенностью предположить, что модель не обучалась этому напрямую), никогда не наблюдались в предыдущих языковых моделях, а вот LLM может показать впечатляющие результаты при выполнении многих таких задач без обучающих примеров, то есть никогда раньше не сталкиваясь ни с чем подобным.

ОБУЧЕНИЕ БЕЗ ОБУЧАЮЩИХ ПРИМЕРОВ (zero-shot learning) или на нескольких примерах (few-shot learning) – это термины, описывающие количество обучающих примеров, которые даются модели перед выполнением задачи.

В случае обучения на нескольких примерах модели дается несколько примеров решения задачи в промпте, и на их основе она определяет, какой ответ должна сгенерировать. В предыдущем случае, когда модели не дают обучающие примеры, промпт состоит полностью или почти полностью из самого вопроса пользователя (иногда модели выпускаются с шаблонным промптом, в котором могут быть записаны типичные инструкции о том, как реагировать на ввод, но это не имеет отношения к нашему обсуждению). Допустим, другой пользователь хотел бы, чтобы модель выполнила более сложную задачу. Например, писатель-фрилансер работает над тремя разными статьями: о разведении собак, об экзопланетах и о городе Питтсбурге. У него есть список статей, и он хотел бы классифицировать их по темам. В этом случае он мог бы написать следующее:

«Каждая из этих статей посвящена или „разведению собак“, или „экзопланетам“, или „Питтсбургу“. Напиши для каждой статьи наиболее подходящую тему из этих трех».

Это можно считать задачей без обучающих примеров. Однако для повышения качества ответа имеет смысл предоставить модели несколько примеров. Итак, если она сгенерирует не совсем тот ответ, который ожидает писатель, можно попытаться дать дополнительные подсказки:

«Пример. „Последние открытия космических телескопов“: экзопланеты. Пример. „Почему у мопсов проблемы с дыханием“: разведение собак»; и так далее.

На рис. 2.2 показано, как работа с моделью через промпты без примеров или с несколькими обучающими примерами отличается от точной настройки модели для конкретной задачи. Если вы использовали LLM для выполнения одной из подобных задач, вы, не задумываясь и не осознавая, могли уже пробовать обучение без обучающих примеров или на нескольких примерах. Это одна из самых сильных сторон LLM, поскольку взаимодействие с этими чат-ботами происходит с помощью простого естественного языка, и во многих случаях мы можем интуитивно откорректировать свой запрос (настроить входные данные) для получения желаемых результатов.

Рис. 2.2. Сравнение тонкой настройки, обучения без обучающих примеров и обучения на нескольких примерах в задаче с машинным переводом

Также некоторые другие изменения в промпте помогли открыть дополнительные эмерджентные возможности моделей. Было показано, что метод под названием «подсказка цепочки рассуждений» (chain-of-thought prompting), при котором мы направляем модель к разбиению сложных задач на несколько этапов, улучшает качество ответа (в простейшем варианте мы предваряем промпт фразой «Давай думать пошагово», и это делает ответы, сгенерированные моделью, более точными при решении логической задачи). Пользователи тестировали введение подробных инструкций для задач без обучающих примеров, а также спрашивали модель об ее уровне уверенности в своем ответе, и все это помогало улучшать ответы при определенных условиях.

В ранее упомянутом исследовании, посвященном эмерджентным способностям LLM, авторы изучали качество работы LLM различного размера при выполнении заданий с несколькими обучающими примерами. В частности, исследователи искали задачи, при решении которых ответы «маленьких» LLM были случайными [34], а затем качество ответов резко возрастало при переходе на модели большего размера. Они обнаружили, что способность языковых моделей выполнять сложение, вычитание и умножение была эмерджентной: GPT‐3 не выдавала практически ни одного правильного ответа, пока не достигла размера в 13 миллиардов параметров. Аналогично было обнаружено, что GPT‐3 и другие модели после достижения 70 миллиардов параметров значительно лучше начинали отвечать на разнообразные вопросы по академическим темам, включая математику, историю и право. Поскольку эти эмерджентные свойства не подчиняются эмпирическому закону масштабирования, трудно с уверенностью ответить на вопросы: будет ли увеличение размера способствовать появлению еще более важных способностей; при достижении какого размера мы больше не увидим новых улучшений; как рассуждать об этих задачах по сравнению с теми, где точность предсказуемо зависит от размера модели.

Искра общего искусственного интеллекта?

Согласно оценкам команды Microsoft, «кроме мастерства в использовании языка, GPT‐4 может решать новые и сложные задачи, включая математику, программирование, компьютерное зрение, медицину, юриспруденцию, психологию и многое другое, не нуждаясь в каких-либо специальных промптах»2. Именно из-за этих эмерджентных свойств появился провокационный заголовок статьи «Искра общего искусственного интеллекта», в которой было написано: «Учитывая глубину и широту способностей GPT‐4, мы полагаем, что его обоснованно можно рассматривать как начальную (но еще неполную) версию системы общего искусственного интеллекта (artificial general intelligence, AGI)». AGI – это давняя цель многих ученых, которые занимаются ИИ; под ним понимается интеллект, способный обучаться так же хорошо, как и люди, которые пока намного лучше обобщают знания и адаптируются к неизвестным задачам. Вопрос общего искусственного интеллекта – и обладают ли им какие-либо большие языковые модели – выходит за рамки этой главы, но мы еще обсудим его и смежные вопросы в главе 9.

2.2.2. Эмерджентность – это иллюзия?

Хотя эмерджентные способности были задокументированы в нескольких исследованиях, в сообществе машинного обучения пока нет единого мнения по этому вопросу. Команда ученых-информатиков из Стэнфордского университета утверждает, что эти так называемые эмерджентные способности проявляются не столько из-за неких качественных изменений в поведении моделей при достижении определенных размеров, сколько из-за методов, которыми исследователи оценивают модели2. В частности, резкое повышение качества работы в некоторых задачах, приписываемое эмерджентности, может быть, по крайней мере частично, обусловлено выбором показателя оценки качества, объемом тестовых данных, используемых для оценки (поскольку тестирование на меньшем количестве данных даст более искаженную оценку), а также количеством больших моделей, которые подвергаются оценке (поскольку больших моделей существует меньше, чем маленьких). Другими словами, авторы не оспаривают превосходство LLM во всех этих задачах, но они подвергают сомнению идею о том, что LLM в тех случаях, когда эмерджентные способности наблюдались, представляют собой фундаментальное отличие от предыдущих версий. Эмерджентное поведение зависит от выбранного показателя для оценки, и пока не ясно, какие показатели лучше, следует относиться с осторожностью к заявлениям, что при использовании более масштабных моделей, большего объема данных или изменения их типа мы можем наблюдать другие возможности.

2.3. Что попадает в обучающие данные?

Как мы уже обсуждали ранее, большие языковые модели обучаются на огромных объемах необработанных данных из интернета. Сколько информации уже скормили этим LLM? Довольно много. Большая языковая модель общего

Перейти на страницу:
Вы автор?
Жалоба
Все книги на сайте размещаются его пользователями. Приносим свои глубочайшие извинения, если Ваша книга была опубликована без Вашего на то согласия.
Напишите нам, и мы в срочном порядке примем меры.
Комментарии / Отзывы
    Ничего не найдено.