Аппаратная реализация асинхронной Аналоговой нейронной сети с обучением на базе унифицированных КМОП IP-блоков

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Доступ платный или только для подписчиков

Аннотация

Представлен подход к проектированию нейроморфных электронных устройств на базе сверточных нейронных сетей с обучением методом обратного распространения ошибки, направленный на повышение энергоэффективности и производительности автономных систем. В основе разработанного подхода лежит использование компилятора топологии нейронных сетей на базе пяти базовых КМОП-блоков, предназначенных для аналоговой реализации всех вычислительных операций в режимах обучения и инференса. Разработанные кроссбар-массивы функциональных аналоговых КМОП-блоков с цифровым управлением уровнем проводимости обеспечивают выполнение операции матрично-векторного умножения в сверточном и полносвязном слоях без использования ЦАП и с применением АЦП в цепях управления весами синаптических связей только в режиме обучения. Эффективность подхода демонстрируется на примере задачи классификации цифр, решаемой с точностью 97.87 % на тестовых данных с использованием разработанной модели аппаратной реализации асинхронной аналоговой нейронной сети с обучением.

Об авторах

М. О. Петров

Санкт-Петербургский государственный электротехнический университет “ЛЭТИ” им. В.И. Ульянова (Ленина)

Email: nvandr@gmail.com
Санкт-Петербург, Россия

Е. А. Рындин

Санкт-Петербургский государственный электротехнический университет “ЛЭТИ” им. В.И. Ульянова (Ленина)

Email: nvandr@gmail.com
Санкт-Петербург, Россия

Н. В. Андреева

Санкт-Петербургский государственный электротехнический университет “ЛЭТИ” им. В.И. Ульянова (Ленина)

Автор, ответственный за переписку.
Email: nvandr@gmail.com
Санкт-Петербург, Россия

Список литературы

  1. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // IEEE Conference on Computer Vision and Pattern Recognition (CVPR). 2016. P. 770–778.
  2. Zagoruyko S., Komodakis N. Wide residual networks // arXiv:1605.07146. 2016. P. 1–15.
  3. Voulodimos A., Doulamis N., Doulamis A., Protopapadakis E. Deep learning for computer vision: A brief review // Computational intelligence and neuroscience. 2018. V. 2018. N. 1. 7068349.
  4. Goyal P., Sumit P., Karan J. Deep learning for natural language processing. Apress Berkeley, CA. 2018. 277 p.
  5. Petrov M.O., Ryndin E.A., Andreeva N.V. Compiler for Hardware Design of Convolutional Neural Networks with Supervised Learning Based on Neuromorphic Electronic Blocks // 2024 Sixth International Conference Neurotechnologies and Neurointerfaces (CNN). 2024. P. 1–4.
  6. Petrov M.O., Ryndin E.A., Andreeva N.V. Automated design of deep neural networks with in-situ training architecture based on analog functional blocks // The European Physical Journal Special Topics. 2024. P. 1–14.
  7. Gupta I., Serb A., Khiat A., Zeitler R., Vassanelli S., Prodromakis T. Sub 100 nW volatile nano-metal-oxide memristor as synaptic-like encoder of neuronal spikes // IEEE transactions on biomedical circuits and systems. 2018. V. 12. N. 2. P. 351–359.
  8. Валуева М.В., Валуев Г.В., Бабенко М.Г., Черных А., Кортес-Мендоса Х.М. Метод аппаратной реализации сверточной нейронной сети на основе системы остаточных классов // Труды Института системного программирования РАН. 2022. Т. 34. № 3. С. 61–74.
  9. LeCun Y., Bengio Y., Hinton G. Deep learning // Nature. 2015. V. 521. N. 7553. P. 436–444.
  10. Goodfellow I., Bengio Y., Courville A. Regularization for deep learning // Deep learning. 2016. P. 216–261.
  11. Schmidhuber J. Deep learning in neural networks: An overview // Neural networks. 2015. V. 61. P. 85–117.
  12. TensorFlow. MNIST dataset in Keras. 2024. URL: https://www.tensorflow.org/api_docs/python/tf/keras/datasets/mnist

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Российская академия наук, 2025