

Прямая и обратная задачи оценивания частоты обработки данных в бинарных нейронных сетях
https://doi.org/10.17586/0021-3454-2025-68-7-567-575
Аннотация
Развертывание бинарных нейронных сетей (BNNS) сопряжено со значительными трудностями, особенно при выборе подходящего оборудования для достижения желаемого уровня производительности и точной оценки вычислительных затрат. Для решения этих проблем была введена новая метрика под названием „XNOROP“, предлагающая упрощенный подход к оценке вычислительных затрат BNNs и представляющая метод сжатия двоичных фильтров. Метрика „XNOROP“ используется для определения и решения двух важнейших задач в BNNs; первая задача, называемая „прямой задачей“, включает в себя оценку скорости вывода данной модели при развертывании на конкретном целевом устройстве; вторая задача, называемая „обратная задача“, описывает систематическую процедуру определения набора целевых устройств, способных обеспечить требуемую скорость вывода при развертывании модели. Расширена базовая формула „XNOROP“ с включением в нее компонентов, сопряженных с временем доступа к памяти, что повысило ее применимость в реальных сценариях развертывания.
Об авторах
A. ШаккуфРоссия
Али Шаккуф — аспирант; факультет систем управления и робототехники
Санкт-Петербург
В. С. Громов
Россия
Владислав Сергеевич Громов — канд. техн. наук; факультет систем управления и робототехники; доцент
Санкт-Петербург
Список литературы
1. Tan S., Zhang Z., Cai Y., Ergu D., Wu L., Hu B., Yu P., & Zhao Y. SegStitch: Multidimensional Transformer for Robust and Efficient Medical Imaging Segmentation // arXiv preprint arXiv:2408.00496, 2024.
2. Lin X. V., Shrivastava A., Luo L., Iyer S., Lewis M., Gosh G., Zettlemoyer L., & Aghajanyan A. MoMa: Efficient EarlyFusion Pre-training with Mixture of Modality-Aware Experts // arXiv preprint arXiv:2407.21770, 2024.
3. Cui Z., Yao J., Zeng L., Yang J., Liu W., & Wang X. LKCell: Efficient Cell Nuclei Instance Segmentation with Large Convolution Kernels // arXiv preprint arXiv: 2407.18054, 2024.
4. Calculate Computational Efficiency of Deep Learning Models with FLOPs and MACs // KDnuggets. 2023. June 19. [Электронный ресурс]: https://www.kdnuggets.com/2023/06/calculate-computational-efficiency-deep-learningmodels-flops-macs.html
5. Dongarra J. Performance of various computers using standard linear equations software in a Fortran environment // Argonne National Laboratory Report ANL-80-70. Argonne, Illinois. 1979.
6. Courbariaux M., Bengio Y., & David J.-P. BinaryConnect: Training Deep Neural Networks with binary weights during propagations. 2016. [Электронный ресурс]: https://arxiv.org/abs/1511.00363.
7. Shakkouf A., Sergeevich G. V. XNOROP: a New Metric for Binary Neural Networks Performance Measurement // 36th Conf. of Open Innovations Association (FRUCT), Lappeenranta, Finland, 2024. P. 721–728. DOI: 10.23919/FRUCT64283.2024.10749876.
8. Wang L., Zhan J., Gao W., Yang K., Jiang Z., Ren R., He X., & Luo C. BOPS, Not FLOPS! A New Metric and Roofline Performance Model For Datacenter Computing // https://arxiv.org/abs/1801.09212, 2019.
9. Moosmann J., Bonazzi P., Li Y., Bian S., Mayer P., Benini L., & Magno M. Ultra-Efficient On-Device Object Detection on AI-Integrated Smart Glasses with TinyissimoYOLO // https://arxiv.org/abs/2311.01057, 2023.
10. Geiger et al. Larq: An Open-Source Library for Training Binarized Neural Networks // Journal of Open-Source Software. 2020. N 5(45). P. 1746. DOI: 10.21105/joss.01746.
Рецензия
Для цитирования:
Шаккуф A., Громов В.С. Прямая и обратная задачи оценивания частоты обработки данных в бинарных нейронных сетях. Известия высших учебных заведений. Приборостроение. 2025;68(7):567-575. https://doi.org/10.17586/0021-3454-2025-68-7-567-575
For citation:
Shakkouf A., Gromov V.S. Forward and Inverse Tasks for Inference Rate Estimation in Binary Neural Networks. Journal of Instrument Engineering. 2025;68(7):567-575. (In Russ.) https://doi.org/10.17586/0021-3454-2025-68-7-567-575