ОБРАБОТКА ЕСТЕСТВЕННОГО ЯЗЫКА С ИСПОЛЬЗОВАНИЕМ НЕЙРОСЕТЕЙ

Authors

  • Умаров Абдурасул Абдурахманович Author

Keywords:

обработка естественного языка, нейросети, машинное обучение, трансформеры, NLP, BERT, GPT, компьютерная лингвистика, синтаксический анализ, генерация текста.

Abstract

В статье рассматриваются современные подходы к обработке естественного языка (Natural Language Processing, NLP) с использованием нейросетевых моделей. Особое внимание уделено архитектурам нейросетей, таким как рекуррентные
нейронные сети, модели на основе трансформеров (BERT, GPT и др.), а также их применению в задачах машинного перевода, классификации текста, распознавании и генерации речи. Анализируются основные преимущества и ограничения нейросетевых решений в NLP, а также перспективы развития данной области с учётом новых требований к интерпретируемости, мультиязычности и этике искусственного интеллекта. Статья подчеркивает значимость нейросетевых технологий для эволюции компьютерной лингвистики и их растущую роль в цифровом обществе.

Downloads

Download data is not yet available.

References

1. Умаров Абдурасул Абдурахманович ОСНОВНЫЕ НАПРАВЛЕНИЯ КОМПЬЮТЕРНОЙ ЛИНГВИСТИКИ // Наука и образование сегодня. 2021. №2 (61).

2. Абдурахманов А. А., Шодиев А. А. Интеллектуальные информационные системы. — Ташкент: Fan, 2021. — 176 с.

3. Тожиев Ф. Т. Машинный перевод и автоматическая обработка текстов на узбекском языке. — Ташкент: Muharrir, 2020. — 140 с.

4. Жураев Ш. Ш. Sun’iy intellekt va tabiiy tilni qayta ishlash: nazariy va amaliy jihatlar. — Тошкент: Ilm Ziyo, 2022. — 164 б.

5. Войцеховский А. Е., Бондаренко А. А. Машинный перевод: модели, методы, алгоритмы. — М.: Директ-Медиа, 2021. — 228 с.

6. Воронцов К. В. Машинное обучение и анализ данных. — М.: МФТИ, 2020. — 312 с.

7. Сапогов Е. М. Нейросетевые технологии в задачах NLP. — М.: Наука, 2023. — 280 с.

8. Jurafsky D., Martin J. H. Speech and Language Processing. 3rd ed. — Boston: Pearson, 2023. — 1024 p.

9. Goldberg Y. Neural Network Methods for Natural Language Processing. — San Rafael: Morgan and Claypool, 2017. — 150 p.

10. Vaswani A., Shazeer N., Parmar N. et al. Attention is All You Need // Advances in Neural Information Processing Systems. — 2017. — Vol. 30.

11. Devlin J., Chang M. W., Lee K., Toutanova K. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding // arXiv preprint arXiv:1810.04805. — 2018.

12. Radford A., Wu J., Child R. et al. Language Models are Few-Shot Learners // arXiv preprint arXiv:2005.14165. — 2020.

13. Rogers A., Kovaleva O., Rumshisky A. A Primer in BERTology: What We Know about How BERT Works // Transactions of the Association for Computational Linguistics. — 2020. — Vol. 8. — P. 842–866.

Downloads

Published

2025-05-06

Issue

Section

Pedagogical sciences

How to Cite

ОБРАБОТКА ЕСТЕСТВЕННОГО ЯЗЫКА С ИСПОЛЬЗОВАНИЕМ НЕЙРОСЕТЕЙ. (2025). Innovations in Science and Technologies, 2(4), 359-364. https://www.innoist.uz/index.php/ist/article/view/878

Similar Articles

1-10 of 74

You may also start an advanced similarity search for this article.