مرور نظام‌مند مطالعات حوزۀ خلاصه‌سازی انتزاعی مبتنی بر پرس‌و‌جو

نوع مقاله : مقاله مروری

نویسندگان

1 دانشجوی دکتری، علم اطلاعات و دانش‌شناسی، دانشگاه اصفهان، اصفهان، ایران

2 استاد، علم اطلاعات و دانش‌شناسی، دانشگاه اصفهان، اصفهان، ایران

3 دانشیار، علم اطلاعات و دانش‌شناسی، دانشگاه اصفهان، اصفهان، ایران

4 استادیار، هوش مصنوعی، دانشگاه اصفهان، اصفهان، ایران

10.30484/nastinfo.2025.3644.2295

چکیده

هدف: امروزه افراد به این حقیقت واقف‌اند که دانش قدرت است. لذا از بازیابی اطلاعات به سمت بازیابی دانش و کشف دانش سوق پیدا کرده‌اند. از طرفی، مطالعه حجم عظیم اسناد متنی وب، دسترس‌پذیری و کاربردپذیری دانش را برای آن‌ها دشوار نموده است. یکی از راهکارها جهت مواجهه با این مسئله، خلاصه‌سازی انتزاعی مبتنی بر پرس‌وجو است. خلاصه‌سازی انتزاعی مبتنی بر پرس‌وجو رویکردی سریع و کارآمد برای پیمایش متون است و یک حوزۀ پژوهشی بسیار پویا محسوب می‌شود. در این پژوهش با استفاده از مرور نظام‌مند، مطالعات پیرامون این حوزه شناسایی و تجزیه‌وتحلیل شده‌اند.
روش: در پژوهش کاربردی حاضر با استفاده از دستورالعمل پریزما، یک مرور نظام‌‌مند انجام شده است. این دستورالعمل در قالب چهار گام شناسایی، غربالگری، شایستگی و شمول با استفاده از یک راهبرد جستجوی مناسب و بدون محدودیت زمانی در پایگاه‌های اسکوپوس، وب‌آوساینس، آی‌تریپل‌ای، پایگاه علمی کتابخانه دیجیتال ای‌سی‌ام، گوگل اسکالر، پروکوئست، نورمگز، مگیران، سید، سیویلیکا، علم نت و گنج اعمال شده است. درنهایت از 1714 مدرک شناسایی‌شده 31 مورد واجد شرایط بوده و مشمول مرور نظام‌مند شده‌اند.
یافته‌ها: ماحصل مرور انجام‌شده نشان می‌دهد که مطالعات این حوزه قدمت چندانی ندارند و با سیر توأم صعودی و نزولی منتشر شده‌‌اند. اکثر این مطالعات از نوع مقاله منتشرشده در مجلات هستند. پژوهشگران برای سیستم‌های خلاصه‌سازی پیشنهادی بیشتر از رویکرد یک‌مرحله‌ای استفاده نموده‌اند و یادگیری‌های با نظارت و خودنظارتی بیشتر موردتوجه آن‌ها بوده است. همچنین، از روش‌های مبتنی بر قانون، آمار و یادگیری ماشین بهره گرفته‌اند. مدل‌های به‌کار گرفته‌شده مبتنی بر گراف، شبکه‌های عصبی و از پیش آموزش‌دیده است. نوع ورودی سیستم‌ها بیشتر تک‌سندی بوده و Debatepedia به‌عنوان محبوب‌ترین مجموعه داده شناسایی شده است. از میان هفده معیار ارزیابی ROUGE بیشترین کاربرد را داشته است.
نتیجه‌گیری: بررسی‌ها نشان داد که چگونه هم‌افزایی‌های اتفاق افتاده در یادگیری، مدل‌ها، روش‌های مورداستفاده و معیارهای ارزیابی کاهش چالش‌هایی از قبیل عدم تناسب خلاصه‌ تولیدشده با پرس‌و‌جو، عدم تناسب خلاصه تولیدشده با متن منبع، فقدان داده‌های برچسب‌گذاری شده برای آموزش مدل‌ها، افزونگی، مجموعه داده‌های محدود، فقدان مجموعه داده مخصوص این نوع خلاصه‌سازی، عدم وجود معیارهای ارزیابی بهبودیافته برای ارزیابی دقیق خلاصه‌های تولیدشده، ابهام معنایی ناشی از عدم تمایز بین جملات با معنای متفاوت و عدم رابطه هم‌ترازی بین توالی‌های ورودی و خروجی را به دنبال داشته است و درنهایت به بهبود عملکرد کلی سیستم‌های خلاصه‌سازی و توسعه آن‌ها کمک نموده است. اما، توانایی درک معنا در سیستم‌ها هنوز فاصله میان خلاصه‌های سیستمی و خلاصه‌های انسانی را پر نکرده است. زیرا معنای درک شده هنوز سطحی بوده و تا حدی وابستگی به ساختارهای نحوی در مدل‌ها دیده می‌شود. درواقع، توانایی درک معنا می‌تواند ضامن ایجاد سیستم‌هایی باشد که معنا و بینش‌های عمیق نهفته در متن را تشخیص داده و براساس وظیفه مشخص‌شده آن‌ها را در خروجی خود اعمال می‌کنند. بر این قرار، ارائه نوآوری‌هایی جهت رفع این ناکارآمدی به‌عنوان جهت‌های پژوهشی آینده پیشنهاد می‌شود. در این مسیر باید مدل‌سازی‌های معنایی و درک معنا در این سیستم‌های خلاصه‌سازی نهادینه شود که به اصلاح و پیشرفت مسیر تکامل روش‌شناسی‌های موجود کمک می‌نماید. همچنین، بهتر است با تغییر و تکامل منابع اطلاعاتی و تحولات درخواست‌های کاربران و زمینه‌های دانشی آن‌ها نیز همگام شد. افزون بر این، خلأ این سیستم‌ها در زبان‌های غیرانگلیسی احساس می‌شود. این امر با ایجاد و تقویت ابزارهای پردازش زبان طبیعی برای زبان‌های غیر انگلیسی قابلیت عملیاتی‌سازی دارد.

کلیدواژه‌ها

موضوعات


عنوان مقاله [English]

Systematic Review of Query-based Abstractive Summarization Studies

نویسندگان [English]

  • Neda Abbasi Dashtaki 1
  • Mehrdad CheshmehSohrabi 2
  • Mitra Pashootanizade 3
  • Hamidreza Baradaran Kashani 4
1 PhD. candidate, Knowledge and Information Science, University of Isfahan, Isfahan, Iran
2 Professor, Knowledge and Information Science, University of Isfahan, Isfahan, Iran
3 Associate Professor, Knowledge and Information Science, University of Isfahan, Isfahan, Iran
4 Assistant Professor, Artificial Intelligence, University of Isfahan, Isfahan, Iran
چکیده [English]

Purpose: Today, people are aware of the fact that knowledge is power. Therefore, there has been a shift from information retrieval to knowledge retrieval and knowledge discovery. On the other hand, the study of the vast volume of textual documents on the web has made access to and usability of knowledge challenging for them. One of the solutions to tackle this issue is query-based abstract summarization. Query-based abstract summarization is a fast and efficient approach for navigating texts and is considered a highly dynamic research area. In this study, a systematic review of the studies in this field has been conducted to identify and analyse the relevant research.
Method: In the present applied research, a systematic review was conducted using the PRISMA guidelines. This guideline is implemented in four steps: identification, screening, eligibility, and inclusion, utilizing an appropriate search strategy without time restrictions in the Scopus, Web of Science, IEEE Xplore, the ACM Digital Library, Google Scholar, ProQuest, Noor Mags, Mag Iran, SID, Civilica, Elm net, and Ganj databases. Ultimately, out of the 1,714 identified documents, 31 were found to be eligible and included in the systematic review.
Findings: The findings of the conducted review indicate that studies in this field are relatively recent and have been published with both upward and downward trends. Most of these studies are in the form of articles published in journals. Researchers have predominantly utilized a one-stage approach for the proposed summarization systems, with a greater focus on supervised and self-supervised learning. Additionally, they have employed methods based on rules, statistics, and machine learning. The models used are based on graphs, neural networks, and pre-trained architectures. The input type for the systems is mostly single-document, with Debatepedia identified as the most popular dataset. Among the seventeen of evaluation metrics, ROUGE has been the most widely used.
Conclusion: The reviews indicate how the synergies that have occurred in learning, models, methods used, and evaluation metrics have helped to mitigate challenges such as the mismatch between the generated summary and the query, the incongruity between the generated summary and the source text, the lack of labelled data for training models, redundancy, limited datasets, the absence of datasets specifically for this type of summarization, the lack of improved evaluation metrics for accurately assessing generated summaries, semantic ambiguity due to the lack of distinction between sentences with different meanings, and the absence of alignment between input and output sequences. Ultimately, these improvements have contributed to enhancing the overall performance of summarization systems and their development. However, the ability to understand semantic in these systems has not yet bridged the gap between system-generated summaries and human summaries. This is because the understood semantic remains superficial and shows a degree of reliance on the syntactical structures in the models. In fact, the ability to understand semantic can guarantee the creation of systems that recognize the deeper semantics and insights embedded in the text and apply them in their output based on the specified task. Accordingly, the presentation of innovations to address these inefficiencies is proposed as directions for future research. In this regard, semantic modelling and semantic understanding should be institutionalized within these summarization systems, contributing to the refinement and advancement of existing methodologies. Furthermore, it is essential to keep pace with the changing and evolving information sources as well as the developments in user requests and their knowledge domains. Additionally, there is a noticeable gap for these systems in non-English languages. This can be addressed by developing and strengthening natural language processing tools for non-English languages, enabling their practical implementation.

کلیدواژه‌ها [English]

  • Automatic Summarization
  • Query-based Summarization
  • Abstractive Approach
  • Systematic Review
  • PRISMA
منابع
استراوس، آنسلم، و کوربین، جولیت (1390). اصول روش تحقیق کیفی: نظریه مبنایی، رویه‌ها و شیوه‌ها (بیوک محمدی، مترجم). تهران: پژوهشگاه علوم انسانی و مطالعات فرهنگی. (اثر اصلی منتشر شده در سال 1990)
بهشتی، سید صمد (1395). تحلیل داده‌های کیفی با نرم‌افزار Maxqda (سید شاهرخ موسویان، ویراستار). تهران: روش‌شناسان.
حریری، نجلا (1385). اصول و روش‌های پژوهش کیفی. تهران: دانشگاه آزاد اسلامی واحد علوم و تحقیقات.
کوهن، تامس (1393). ساختار انقلاب‌های علمی (سعید زیباکلام، مترجم). تهران: سمت. (اثر اصلی منتشر شده در سال 1962)
References
Abdullah, D. M. (2020). Query focused abstractive summarization using BERTSUM model [Master's thesis, University of Lethbridge]. URL: https://opus.uleth.ca/handle/10133/5760
Abdullah, D. M., & Chali, Y. )2020(. Towards generating query to perform query focused abstractive summarization using pre-trained model. In Proceedings of the 13th International conference on natural language generation (pp. 80-85). URL: https://aclanthology.org/2020.inlg-1.11/
Alambo, A., Lohstroh, C., Madaus, E., Padhee, S., Foster, B., Banerjee, T., Thirunarayan, k., & Raymer, M. (2020, December). Topic-centric unsupervised multi-document summarization of scientific and news articles. In 2020 IEEE International Conference on Big Data (Big Data) (pp. 591-596). URL: https://arxiv.org/abs/2011.08072
Alanzi, E., & Alballaa, S. (2023). Query-Focused Multi-document Summarization Survey. International Journal of Advanced Computer Science and Applications, 14(6), 822-833. URL: http://dx.doi.org/10.14569/IJACSA.2023.0140688
Allahyari, M., Pouriyeh, S., Assefi, M., Safaei, S., Trippe, E. D., Gutierrez, J. B., & Kochut, K. (2017). Text summarization techniques: a brief survey. arXiv preprint. URL: https://arxiv.org/abs/1707.02268
Andhale, N., & Bewoor, L. A. (2016). An overview of text summarization techniques. In 2016 international conference on computing communication control and automation (ICCUBEA),  Pune, India, 2016. URL: https://ieeexplore.ieee.org/document/7860024
Arthur, M. P., Rameshchandra, T. J., & Dhanabalachandran, M. (2023). Abstractive Summarization Based Question-Answer System for Structural Information. In International Conference on Applications of Natural Language to Information Systems (pp. 416-427). Cham: Springer Nature Switzerland. URL: https://doi.org/10.1007/978-3-031-35320-8_30
Aryal, C. (2019). Query-Focused Abstractive Summarization using Neural Networks [Master's thesis, University of Lethbridge]  URL: https://hdl.handle.net/10133/5400
Baumel, T., Eyal, M., & Elhadad, M. (2018). Query focused abstractive summarization: Incorporating query relevance, multi-document coverage, and summary length constraints into seq2seq models. arXiv preprint. URL: https://arxiv.org/abs/1801.07704
Beheshti, S. S. (2016). Analysis of Qualitative Data with Maxqda Software (S. S. Mousavian, Ed). Tehran: Ravesh shenasan. (Original work published ....) [In Persian]
Berners-Lee, T. (1998). Semantic web road map. URL: https://www.w3.org/DesignIssues/Semantic.html
Deng, Y., Zhang, W., & Lam, W. (2020). Multi-hop inference for question-driven summarization. arXiv preprint. URL: https://arxiv.org/abs/2010.03738
Deng, Y., Zhang, W., Xu, W., Shen, Y., & Lam, W. (2023). Nonfactoid question answering as query-focused summarization with graph-enhanced multi hop inference. IEEE Transactions on Neural Networks and Learning Systems, 35 (8), 1-14. URL: https://ieeexplore.ieee.org/document/10083216
Dong, Y. )2018(. A survey on neural network-based summarization methods. arXiv preprint arXiv. URL: https://arxiv.org/abs/1804.04589
Esteva, A., Kale, A., Paulus, R., Hashimoto, K., Yin, W., Radev, D., & Socher, R. (2021). COVID-19 information retrieval with deep-learning based semantic search, question answering, and abstractive summarization. NPJ digital medicine, 4(1), 68. URL: https://doi.org/10.1038/s41746-021-00437-0
Gambhir, M., & Gupta, V. (2017). Recent automatic text summarization techniques: a survey. Artificial Intelligence Review, 47(1), 1-66. URL: https://link.springer.com/article/10.1007/s10462-016-9475-9
Gavalan, H. S., Rastgoo, M. N., & Nakisa, B. (2024). A BERT-Based Summarization approach for depression detection. arXiv preprint. URL: https://arxiv.org/pdf/2409.08483
Giarelis, N., Mastrokostas, C., & Karacapilidis, N. (2023). Abstractive vs. extractive summarization: An experimental review. Applied Sciences, 13(13), 7620. URL: https://doi.org/10.3390/app13137620
Girthana, K., & Swamynathan, S. (2019). Query oriented extractive-abstractive summarization system (QEASS). In Proceedings of the ACM India Joint International Conference on Data Science and Management of Data (pp. 301-305). URL: https://doi.org/10.1145/3297001.3297046
Hariri, N. (2002). Principles and Methods of Qualitative Research. Tehran: Islamic Azad University, Science and Research Branch [In Persian]
Han, H., & Choi, J. (2024). Optimal path for Biomedical Text Summarization Using Pointer GPT. arXiv preprint. URL:  https://arxiv.org/pdf/2404.08654
Hasselqvist, J., Helmertz, N., & Kågebäck, M. (2017). Query-based abstractive summarization using neural networks. arXiv preprint. URL: https://arxiv.org/abs/1712.06100
Inoue, N., Trivedi, H., Sinha, S., Balasubramanian, N., & Inui, K. (2021). Summarize-then-answer: Generating concise explanations for multi-hop reading comprehension. arXiv preprint. URL: https://arxiv.org/abs/2109.06853
Israel, Q., Han, H., & Song, I. Y. (2015). Semantic analysis for focused multi-document summarization (fMDS) of text. In Proceedings of the 30th Annual ACM Symposium on Applied Computing (pp. 339-344). URL: https://doi.org/10.1145/2695664.2695672
Jeyakarthic, M., & Leoraj, A. (2024). Knowledge-Infused Corpus Building for Context-Aware Summarization with Bert Model. Migration Letters, 21(S4), 1681-1694. https://migrationletters.com/index.php/ml/article/view/7588
Kanapala, A., Pal, S., & Pamula, R. (2019). Text summarization from legal documents: a survey. Artificial Intelligence Review, 51, 371-402. URL: https://link.springer.com/article/10.1007/s10462-017-9566-2
Kuhn, T. (2014). The Structure of Scientific Revolutions (S. Zibakalam, Trans.). Tehran: Samt. (Original work published 1962)  [In Persian]
Kumaravel, G., & Sankaranarayanan, S. (2021). PQPS: Prior‐Art Query‐Based Patent Summarizer Using RBM and Bi‐LSTM. Mobile Information Systems, 2021(1), 2497770. URL: https://doi.org/10.1155/2021/2497770
Laskar, M. T. R., Hoque, E., & Huang, J. (2020). Query focused abstractive summarization via incorporating query relevance and transfer learning with transformer models. In Advances in Artificial Intelligence: 33rd Canadian Conference on Artificial Intelligence, Canadian AI 2020, Ottawa, ON, Canada, May 13–15, 2020, Proceedings. 33 (pp. 342-348). Springer International Publishing. URL: https://link.springer.com/chapter/10.1007/978-3-030-47358-7_35
Laskar, M. T. R., Rahman, M., Jahan, I., Hoque, E., & Huang, J. (2023a). CQSumDP: a ChatGPT-annotated resource for query-focused abstractive summarization based on debatepedia. arXiv preprint. URL: https://arxiv.org/abs/2305.06147
Laskar, M. T. R., Rahman, M., Jahan, I., Hoque, E., & Huang, J. (2023b). Can large language models fix data annotation errors? an empirical study using debatepedia for query-focused text summarization. In Findings of the Association for Computational Linguistics: EMNLP. 2023 (pp. 10245-10255). URL: https://aclanthology.org/2023.findings-emnlp.686.pdf
Laskar, M., Hoque, E., & Huang, J. (2021). Domain Adaptation with Pre-trained Transformers for Query Focused Abstractive Text Summarization. arXiv e-prints. URL: https://arxiv.org/abs/2112.11670
LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436-444. URL: https://www.nature.com/articles/nature14539
Li, B., Yang, P., Zhao, H., Zhang, P., & Liu, Z. (2023). Hierarchical sliding inference generator for question-driven abstractive answer summarization. ACM Transactions on Information Systems, 41(1), 1-27. URL: https://doi.org/10.1145/3511891
Liu, M., Ma, Z., Li, J., Wu, Y. C., & Wang, X. (2024). Deep-Learning-Based Pre-training and Refined Tuning for Web Summarization Software. IEEE Access. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=10584489
Mehdad, Y., Carenini, G., & Ng, R. (2014). Abstractive summarization of spoken and written conversations based on phrasal queries. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers) (pp. 1220-1230). URL: https://aclanthology.org/P14-1115
Mridha, M. F., Lima, A. A., Nur, K., Das, S. C., Hasan, M., & Kabir, M. M. (2021). A survey of automatic text summarization: Progress, process and challenges. IEEE Access, 9, 156043-156070. URL: https://ieeexplore.ieee.org/abstract/document/9623462/
Nagalavi, D., & Hanumanthappa, M. (2019). The NLP Techniques for Automatic Multi-Article News Summarization Based on Abstract Meaning Representation. In Emerging Trends in Expert Applications and Security, 253-260. Springer, Singapore.URL: https://link.springer.com/chapter/10.1007/978-981-13-2285-3_31
Nema, P., Khapra, M., Laha, A., & Ravindran, B. (2017). Diversity driven attention model for query-based abstractive summarization. arXiv preprint. URL: https://aclanthology.org/P17-1098
Nimavat, K., & Joshiara, H. A. (2017). query-based summarization methods for conversational agents: an overview. International Journal of Advanced Research in Computer Science, 8(8), 448-453. URL: https://www.proquest.com/docview/1953785769
Nishida, K., Saito, I., Nishida, K., Shinoda, K., Otsuka, A., Asano, H., & Tomita, J. (2019). Multi-style generative reading comprehension. arXiv preprint. URL: https://arxiv.org/abs/1901.02262
Pasunuru, R., Celikyilmaz, A., Galley, M., Xiong, C., Zhang, Y., Bansal, M., & Gao, J. (2021). Data augmentation for abstractive query-focused multi-document summarization. In Proceedings of the AAAI Conference on Artificial Intelligence, 35 (15), 13666-13674. URL: https://arxiv.org/abs/2103.01863
Polash, M. M. H. (2019). Query-focused abstractive summarization using sequence-to-sequence and transformer models [Doctoral dissertation, University of Lethbridge]. URL: https://hdl.handle.net/10133/5665
Rahman, N., & Borah, B. (2020). Improvement of query-based text summarization using word sense disambiguation. Complex & Intelligent Systems, 6, 75-85. URL: https://link.springer.com/article/10.1007/s40747-019-0115-2
Ritharson, P. I., Juliet, D. S., Anitha, J., & Pandian, S. I. A. (2023). Multi-Document Summarization Made Easy: An Abstractive Query-Focused System Using Web Scraping and Transformer Models. In 2023 3rd International Conference on Intelligent Technologies (CONIT), Hubli, India, 2023. URL: https://ieeexplore.ieee.org/document/10205946
Roy, P., & Kundu, S. (2023). Review on Query-focused Multi-document Summarization (QMDS) with Comparative Analysis. ACM Computing Surveys, 56(1), 1-38. URL: https://doi.org/10.1145/3597299
ShafieiBavani, E., Ebrahimi, M., Wong, R., & Chen, F. (2016). A query-based summarization service from multiple news sources. In 2016 IEEE International Conference on Services Computing (SCC) (pp. 42-49). IEEE. URL: https://ieeexplore.ieee.org/document/7557434
Strauss, A., & Corbin, J. (2011). Basics of qualitative research :grounded theory procedures and techniques (B. Mohammadi, Trans.). Tehran: Humanities and Cultural Studies Research Institute. (Original work published 1990)   [In Persian]
Su, D., Xu, Y., Yu, T., Siddique, F. B., Barezi, E. J., & Fung, P. (2020). CAiRE-COVID: A question answering and query-focused multi-document summarization system for COVID-19 scholarly information management. arXiv preprint. URL: https://aclanthology.org/2020.nlpcovid19-2.14/
Su, D., Yu, T., & Fung, P. (2021). Improve query focused abstractive summarization by incorporating answer relevance. arXiv preprint. URL: https://arxiv.org/abs/2105.12969
Suleiman, D., & Awajan, A. (2020). Deep learning based abstractive text summarization: approaches, datasets, evaluation measures, and challenges. Mathematical problems in engineering, 2020, 1-29. URL: https://doi.org/10.1155/2020/9365340
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N.,  Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. 31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA. (pp. 6000-6010). URL: https://dl.acm.org/doi/10.5555/3295222.3295349
Vig, J., Fabbri, A. R., Kryściński, W., Wu, C. S., & Liu, W. (2021). Exploring neural models for query-focused summarization. arXiv preprint. URL: https://arxiv.org/abs/2112.07637
Wang, X., Wang, J., Xu, B., Lin, H., Zhang, B., & Yang, Z. (2022). Exploiting Intersentence Information for Better Question-Driven Abstractive Summarization: Algorithm Development and Validation. JMIR Medical Informatics, 10(8), e38052. URL: https://medinform.jmir.org/2022/8/e38052
Wibawa, A. P., & Kurniawan, F. (2024). A survey of text summarization: Techniques, evaluation and challenges. Natural Language Processing Journal, 7, 100070. URL: https://doi.org/10.1016/j.nlp.2024.100070
Xu, Y., & Lapata, M. (2020). Abstractive query focused summarization with query-free resources. arXiv preprint. URL: https://arxiv.org/pdf/2012.14774v1
Xu, Y., & Lapata, M. (2021a). Generating query focused summaries from query-free resources. Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), 6096–6109. URL: https://aclanthology.org/2021.acl-long.475
Xu, Y., & Lapata, M. (2021b). Text summarization with latent queries. arXiv preprint. URL: https://arxiv.org/abs/2106.00104
Yadav, D., Desai, J., & Yadav, A. K. (2022). Automatic Text Summarization Methods: A Comprehensive Review. arXiv preprint. URL: https://arxiv.org/abs/2204.01849
Yu, H. (2022). Survey of Query-based Text Summarization. arXiv preprint. URL: https://arxiv.org/abs/2211.11548
 
 
CAPTCHA Image