» » » Создана человекоподобная память для ИИ-трансформеров

Создана человекоподобная память для ИИ-трансформеров

 Изображение: Sangjun Park & JinYeong Bak / techxplore.com

Ученые Университета Сунгюнгван в Южной Корее создали человекоподобную систему памяти, которая улучшает производительность трансформеров — моделей машинного обучения, используемых для обработки текстов на естественном языке и лежат в основе диалоговых платформ, таких как ChatGPT. Результаты исследования опубликованы в препринте статьи на сайте arXiv.

Трансформер представляет собой тип архитектуры глубокого обучения, который основан на механизмах, имитирующих когнитивное внимание. При обучении нейронная сеть определяет корреляции между различными словами в текстах (взятых, например, из «Википедии»), что позволяет ей генерировать собственные тексты. В отличие от рекуррентных нейронных архитектур, которые обрабатывают текст последовательно, трансформеры делают это параллельно.

Однако трансформеры сталкиваются с трудностями при обучении на длинных последовательностях из-за ограничений в емкости. Для решения этой проблемы ученые воспользовались тем фактом, что в отличие от нейронных сетей, которые обрабатывают весь текст, люди выделяют из текстов только релевантную информацию, откладывая ее в кратковременной и долговременной памяти, чтобы воспроизвести в будущем. Теория Хебба объясняет, как мозг формирует нейронные связи для запоминания и извлечения информации:

Согласно теории Хебба, которая объясняет, как мозг формирует связи между нейронами для хранения и извлечения информации, многократная одновременная активация двух нейронов укрепляет связь между ними. Новая система памяти, называемая Memoria, извлекает и хранит информацию, называемой энграммой, на нескольких уровнях (рабочая, кратковременная и долговременная память), используя коэффициенты, соответствующие силе связи между нейронами, которые изменяются в соответствии с теорией Хебба.

Серия экспериментов показала, что Memoria значительно повышает производительность трансформеров при выполнении различных задач, связанных с обработкой длинных последовательностей данных. Авторы пишут, что она улучшает способность учитывать долгосрочные закономерности в различных задачах и превосходит существующие методологии в сортировке и языковом моделировании, а также классификации длинных текстов.

Источник: lenta.ru



ДРУГИЕ НОВОСТИ

Комментарии

Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.
САМОЕ ЧИТАЕМОЕ / КОММЕНТИРУЕМОЕ
  1. Chery запускает в России новый бренд автомобилей
  2. Найдена новая звездная система, в которой много темной материи
  3. Apple создаст новый способ защиты iPhone
  4. АвтоВАЗ выпустит замену Lada Largus
  5. Skywell показала электрокар с «медицинским кокпитом»
  6. ИИ появится в недорогих смартфонах
  7. Пользователям WhatsApp стала доступна новая функция
  8. У лифтбека «Москвич 6» появится еще одна версия
  9. Windows 11 очистили от встроенного браузера Edge
  10. ИИ разработал суперконденсатор, который хранит рекордное количество энергии
Как работать на себя с 2023 года? Вот что рассказали в МНС
Как работать на себя с 2023 года? Вот что рассказали в МНС
В Министерстве по налогам и сборам сообщили, что сейчас готовится проект постановления правительства и там будет определен Читать далее
Что изменится для белорусов в июле
Что изменится для белорусов в июле
Традиционно в середине июля белорусам предстоит пережить множество нововведений, изменений и дополнений. Читать далее
Все новости
Галерея