Знакомим вас с аналогами ChatGPT — чат-ботами, основанными на опенсорных нейросетевых моделях.

Они отвечают на вопросы, пишут посты для социальных сетей, решают математические задачи и делают многое другое. Изучим их возможности и, конечно, опробуем на практике.
Сегодня рассмотрим HuggingChat.
HuggingChat — это сервис для работы с языковыми моделями от американской платформы Hugging Face, специализирующейся на ИИ-решениях с открытым исходным кодом. Стартап был основан в 2016 году и недавно получил инвестиции в объёме 40 млн долларов, увеличив свою стоимость до 2 млрд.
Неудивительно, что именно на базе Hugging Face в апреле 2023 года был запущен чат-бот HuggingChat, один из главных конкурентов ChatGPT. В его основе лежат лучшие открытые LLM, лидерство которых подтверждается лидербордами нейросеток.
Что у HuggingChat под капотом?
На старте HuggingChat работал на базе одной нейронки — Open Assistant от некоммерческой организации LAION. Сейчас можно выбрать языковую модель из шести:
— LLaMA 2 70B Chat: версия цукерберговской LLaMA 2 с 70 миллиардами параметров, созданная специально для ведения диалогов.
— Code LLaMA 34B Instruct: вариант LLaMA на 34 млрд параметров, обученный для генерации программного кода на Python, C++, Java, PHP, C# и TypeScript.
— OpenChat 3.5: в момент выхода статьи нейронка занимает первое место в бенчмарке MT Bench, являясь самой эффективной моделью размером 7 млрд параметров. Достигает качества ChatGPT (в версии от марта 2023 года) и превосходит Grok-1.
— Mistral 7B Instruct: модель от французского стартапа Mistral AI, основанная на LLaMA 2, но превосходящая её по бенчмаркам.
— Mixtral 8×7B Instruct: ещё одна LLM от Mistral AI. Построена по архитектуре Mixture of experts (MoE, «модель смешанных экспертов»), копирующей предполагаемое устройство GPT-4. Состоит из восьми нейросетей-экспертов, каждая из которых отвечает за свой набор задач. Благодаря этому её скорость вывода в шесть раз выше по сравнению с LLaMA 2 70B. Длина контекстного окна достигает 32 тысяч токенов.
— Nous Hermes 2 Mixtral 8×7B: доработанный вариант Mixtral 8×7B от научной группы Nous Research. Обучена более чем на миллионе записей, в основном сгенерированных с помощью GPT-4. В большинстве тестов превосходит базовую Mixtral.
В качестве модели по умолчанию в HuggingChat используется Mixtral 8×7B Instruct, как самая мощная, универсальная и стабильная LLM из всех предложенных. Но при необходимости можно выбрать любую из них.
Для переключения между моделями нажмите на неприметный значок в виде шестерёнки на плашке Current Model («Текущая модель»).
Фишка HuggingChat — возможность включить для чат-бота доступ к интернету. Это выручает в тех ситуациях, когда нам требуется получить информацию о текущих событиях, данные о которых отсутствовали в обучающем наборе. Чтобы включить эту опцию, достаточно передвинуть ползунок Search web, расположенный над полем ввода промпта.
Для работы с чат-ботом регистрация не обязательна, но в режиме гостя установлено ограничение на количество доступных запросов. Поэтому рекомендуем вам зарегистрироваться. Для этого потребуется только адрес электронной почты и пароль.

Комментарии

Комментариев нет.