Компания Google объявила о публикации большой языковой модели машинного обучения Gemma, построенной с использованием технологий, применяемых для построения модели чат-бота Gemini, пытающегося конкурировать с ChatGPT. Модель доступна в четырёх вариантах, охватывающих 2 и 7 миллиардов параметров, в базовом и оптимизированном для диалоговых систем представлениях. Варианты с 2 млрд параметров подходят для использования в потребительских приложениях и для их обработки достаточно CPU. Варианты с 7 млрд параметров требуют более мощного оборудования и наличия GPU или TPU.

Среди областей применения модели Gemma называется создание диалоговых систем и виртуальных ассистентов, генерация текста, формирование ответов на вопросы, заданные на естественном языке, краткое изложение и обобщение содержимого, объяснение сути концепций и терминов, исправление ошибок в тексте, помощь в изучении языков. Поддерживается создание различных видов текстовых данных, включая стихи, код на языках программирования, рерайтинг произведений другими словами, формирование писем по шаблону. При этом модель имеет относительно небольшой размер, позволяющий использовать её на своём оборудовании с ограниченными ресурсами, например, на обычных ноутбуках и ПК.

Лицензия на модель разрешает бесплатное использование и распространение не только в исследовательских и персональных проектах, но и в коммерческих продуктах. Также разрешено создание и публикация изменённых вариантов модели. При этом условия использования запрещают применение модели для совершения вредоносных действий и предписывают по возможности использовать в своих продуктах самую свежую версию Gemma.

Поддержка работы с моделями Gemma уже добавлена в инструментарии TransformersResponsible Generative AI ToolkitMaxTextNVIDIA NeMo и NVIDIA TensorRT-LLM. Google опубликовал отдельный движок вывода gemma.cpp для Gemma, написанный на C++. Поддержка Gemma также уже добавлена в движок llama.cpp. Для оптимизации модели можно использовать фреймворк Keras и бэкенды для TensorFlow, JAX и PyTorch.

Размер учитываемого моделью Gemma контекста составляет 8 тысяч токенов (число токенов, которые модель может обработать и запомнить при генерации текста). Для сравнения размер контекста у моделей Gemini и GPT-4 составляет 32 тысячи токенов, а у модели GPT-4 Turbo – 128 тысяч. Моделью поддерживается только английский язык. В сравнении, проведённом Huggingface, среди открытых моделей Gemma-7B уступает только модели LLama 2 70B Chat, но опережает модели DeciLM-7BPHI-2 (2.7B) и Mistral-7B-v0.1. В сравнении, проведённом Google, модель Gemma-7B немного опережает LLama 2 7B/13B и Mistral-7B.

Источник: https://www.opennet.ru/opennews/art.shtml?num=60642

Ваша реакция?
+1
0
+1
3
+1
1
+1
0
+1
0
+1
0
+1
0
4.8 4 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

2 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Bard
Bard
1 месяц назад

Вот это я понимаю. Сделано для людей. Не то что жадный openai, два слова тебе скажет и денег начинает просить, как поберушка.

2
0
Оставьте комментарий! Напишите, что думаете по поводу статьи.x
Enable Notifications OK No thanks