상세검색
최근 검색어 전체 삭제
다국어입력
즐겨찾기0
스마트미디어저널 Vol12, No.6.jpg
KCI등재후보 학술저널

다중목표 대화형 추천시스템을 위한 사전 학습된 언어모델들에 대한 성능 평가

Pre-trained Language Models in Multi-Goal Conversational Recommender Systems

본 연구는 대화형 추천 시스템인 다중 목표 대화형 추천 시스템(MG-CRS)에서 사용되는 다양한 사전 학습된 언어 모델들을 고찰하고, 각 언어모델 성능을 비교분석한다. 특히, 언어 모델의 크기가 다중 목표 대화형 추천 시스템의 성능에 어떤 영향을 미치는지에 대. BERT, GPT2, 그리고 BART의 세 종류의 언어 모델을 대상으로 하여, 대표적인 다중 목표 대화형 추천 시스템 데이터셋인 DuRecDial 2.0에서 '타입 예측'과 '토픽 예측'의 정확도를 측정하고 비교한다. 실험 결과, 타입 예측에서는 모든 모델이 뛰어난 성능을 보였지만, 토픽 예측에서는 모델 간에 혹은 사이즈에 따라 성능 차이가 관찰되었다. 이러한 결과를 바탕으로 다중 목표 대화형 추천 시스템의 성능 향상을 위한 방향을 제시한다.

In this paper, we examine pre-trained language models used in Multi-Goal Conversational Recommender Systems (MG-CRS), comparing and analyzing their performances of various pre-trained language models. Specifically, we investigate the impact of the sizes of language models on the performance of MG-CRS. The three types of language models of BERT, GPT2, and BART, and compare their accuracy in two tasks of 'type prediction and topic prediction on the MG-CRS dataset, DuRecDial 2.0. Experimental results show that all models demonstrate excellent performance in the type prediction task, but provide significant in performance depending on models or their sizes in the topic prediction task. Based on these findings, the study provides directions for improving the performance of MG-CRS.

Ⅰ. 서론

Ⅱ. 본론

Ⅲ. 결론

REFERENCES

로딩중