ОБРАБОТКА ЕСТЕСТВЕННОГО ЯЗЫКА С ИСПОЛЬЗОВАНИЕМ НЕЙРОСЕТЕЙ
Ключевые слова:
обработка естественного языка, нейросети, машинное обучение, трансформеры, NLP, BERT, GPT, компьютерная лингвистика, синтаксический анализ, генерация текста.Аннотация
В статье рассматриваются современные подходы к обработке естественного языка (Natural Language Processing, NLP) с использованием нейросетевых моделей. Особое внимание уделено архитектурам нейросетей, таким как рекуррентные
нейронные сети, модели на основе трансформеров (BERT, GPT и др.), а также их применению в задачах машинного перевода, классификации текста, распознавании и генерации речи. Анализируются основные преимущества и ограничения нейросетевых решений в NLP, а также перспективы развития данной области с учётом новых требований к интерпретируемости, мультиязычности и этике искусственного интеллекта. Статья подчеркивает значимость нейросетевых технологий для эволюции компьютерной лингвистики и их растущую роль в цифровом обществе.
Скачивания
Библиографические ссылки
1. Умаров Абдурасул Абдурахманович ОСНОВНЫЕ НАПРАВЛЕНИЯ КОМПЬЮТЕРНОЙ ЛИНГВИСТИКИ // Наука и образование сегодня. 2021. №2 (61).
2. Абдурахманов А. А., Шодиев А. А. Интеллектуальные информационные системы. — Ташкент: Fan, 2021. — 176 с.
3. Тожиев Ф. Т. Машинный перевод и автоматическая обработка текстов на узбекском языке. — Ташкент: Muharrir, 2020. — 140 с.
4. Жураев Ш. Ш. Sun’iy intellekt va tabiiy tilni qayta ishlash: nazariy va amaliy jihatlar. — Тошкент: Ilm Ziyo, 2022. — 164 б.
5. Войцеховский А. Е., Бондаренко А. А. Машинный перевод: модели, методы, алгоритмы. — М.: Директ-Медиа, 2021. — 228 с.
6. Воронцов К. В. Машинное обучение и анализ данных. — М.: МФТИ, 2020. — 312 с.
7. Сапогов Е. М. Нейросетевые технологии в задачах NLP. — М.: Наука, 2023. — 280 с.
8. Jurafsky D., Martin J. H. Speech and Language Processing. 3rd ed. — Boston: Pearson, 2023. — 1024 p.
9. Goldberg Y. Neural Network Methods for Natural Language Processing. — San Rafael: Morgan and Claypool, 2017. — 150 p.
10. Vaswani A., Shazeer N., Parmar N. et al. Attention is All You Need // Advances in Neural Information Processing Systems. — 2017. — Vol. 30.
11. Devlin J., Chang M. W., Lee K., Toutanova K. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding // arXiv preprint arXiv:1810.04805. — 2018.
12. Radford A., Wu J., Child R. et al. Language Models are Few-Shot Learners // arXiv preprint arXiv:2005.14165. — 2020.
13. Rogers A., Kovaleva O., Rumshisky A. A Primer in BERTology: What We Know about How BERT Works // Transactions of the Association for Computational Linguistics. — 2020. — Vol. 8. — P. 842–866.
Загрузки
Опубликован
Выпуск
Раздел
Лицензия

Это произведение доступно по лицензии Creative Commons «Attribution» («Атрибуция») 4.0 Всемирная.
License Terms of our Journal