НОВОСТИ: IT-технологии | Наука | Образование

Apple только что представила технологию искусственного интеллекта - лучшего конкурента с ChatGPT

Техно-тренды Искусственный интеллект Программное обеспечение Технические проблемы
Новая стратегия Apple сокращает количество ошибок новых LLM до 40%.
Когда лаборатория ИИ обновляет свою базовую большую языковую модель, это часто может привести к неожиданному поведению, включая полное изменение способа реагирования на запросы. Исследователи из Apple разработали новые способы улучшения пользовательского опыта при обновлении модели ИИ, с которой они привыкли работать.
В одной статье исследователи Apple заявили, что пользователи разрабатывают собственную систему для взаимодействия с LLM, включая стили и методы подсказок. Переход на новую модель может быть изнурительной задачей, которая ухудшает их опыт использования модели ИИ.
Обновление может привести к тому, что пользователям придется изменить способ написания подсказок, и хотя первые пользователи моделей ChatGPT могут с этим согласиться, основная аудитория, использующая iOS, скорее всего, сочтет это неприемлемым.

Чтобы решить эту проблему, команда рассмотрела возможность создания метрик для сравнения регрессии и несоответствий между различными версиями модели, а также разработала стратегию обучения, чтобы свести к минимуму возникновение таких несоответствий изначально.

Хотя пока не ясно, станет ли это частью будущего iOS Apple Intelligence, очевидно, что Apple готовится к тому, что произойдет, когда она обновит свои базовые модели, гарантируя, что Siri будет реагировать таким же образом на те же запросы в будущем.

Обеспечение обратной совместимости ИИ

Apple представляет стратегию обновления модели MUSCLEA для совместимой эволюции LLM Большие языковые модели (LLM) часто обновляются из-за изменений в данных или архитектуре для повышения их производительности.

Исследователи заявили, что с помощью нового метода им удалось сократить количество отрицательных переворотов (когда старая модель дает правильный ответ, а новая — неправильный) до 40%.

Авторы статьи также выступили за то, чтобы ошибки, допускаемые новой моделью, соответствовали ошибкам, которые можно наблюдать в старой модели.
«Мы утверждаем, что последовательность имеет смысл, когда обе модели неверны», — заявили они, добавив, что «пользователь мог выработать стратегии преодоления трудностей, связанные с тем, как взаимодействовать с моделью, когда она неверна». Таким образом, несоответствия могут привести к неудовлетворенности пользователя.

Соревнование

Они назвали метод, используемый для преодоления этих препятствий, MUSCLE (аббревиатура от Model Update Strategy for Compatible LLM Evolution), который не требует изменения обучения базовой модели и опирается на адаптеры обучения, которые по сути являются плагинами для LLM. Они назвали их адаптерами совместимости.

Чтобы проверить, работает ли их система, исследовательская группа обновила LLM, такие как Llama и Phi, и иногда обнаруживала отрицательные перевороты до 60% в различных задачах. Тесты, которые они проводили, включали в себя задание обновленным моделям математических вопросов, чтобы проверить, по-прежнему ли они правильно отвечают на конкретную задачу.

Используя предложенную ими систему MUSCLE, исследователи утверждают, что им удалось смягчить довольно много таких негативных переворотов. Иногда до 40%.
Источник: Tomsguide | Теги: искусственный интеллект, большую языковую модель