728x90 Natural Language Processing20 [간단한 Review] Deep contextualized word representations (ELMo) Abstract Deep contextualized word representation 모델은 아래의 사항들을 내포하고 있다. 단어의 복잡한 특성 단어 사용이 언어적인 문맥에서 다양한지 (모델의 다형성) 예를 들어, Bank라는 단어를 생각해보자. Bank Account(은행 계좌)와 River Bank (강둑)에서의 Bank는 전혀 다른 의미를 가지게 된다. 따라서 같은 표기의 단어더라도 문맥에 따라 다르게 워드 임베딩을 한다면 성능을 향상시킬 수 있을 것이다. 따라서 Contextualized Word Embedding 방식 즉, 문맥을 반영한 워드 임베딩을 활용한 모델을 이 논문에서 제안했다. ELMo : Embedding from Language Models RNN 언어 모델은 문장으로부터 단어 .. 2023. 5. 22. [LLM Bootcamp 리뷰] Launch an LLM App in One Hour Introduction 1960년대에도 인공지능에 대한 이야기가 나왔었다. 하지만, 지금과 예전과 가장 큰 다른점은 현재는 하나의 툴써로 large language model이 사용해 다양한 task를 수행할 수 있다는 점이다. 그렇다면 large language model이 무엇인가? 라고 했을 때, 가장 핵심적인 것은 다음에 올 단어를 예측하는 것이다. 이렇게 large language model이 사람과 상호작용하기 위해서는 Language User Interface가 가장 중요한 요소다. 따라서 Language user interface에 관한 내용 또한 1960년대부터 대두되기 시작했다. (ELIZA는 채팅 로봇 치료사이며, Ask Jeeves는 최초의 검색엔진 이다.) 이때, 1990년도에는 .. 2023. 5. 16. NLP metrics 정리 (BLEU vs sacreBLEU vs spBLEU 란) BLEU 설명 기계 번역 성능을 평가하기 위한 지표 중 하나이다. 기계 번역 결과와 인간이 작성한 기계 번역에 대한 기준 번역을 비교하여 점수를 산출한다. (실제론 기계번역 뿐만 아니라 Style Transfer 등 다양한 자연어처리 task에서 사용된다.) 수식 예시 예측된 sentence: 빛이 쐬는 노인은 완벽한 어두운곳에서 잠든 사람과 비교할 때 강박증이 심해질 기회가 훨씬 높았다. true sentence: 빛이 쐬는 사람은 완벽한 어둠에서 잠든 사람과 비교할 때 우울증이 심해질 가능성이 훨씬 높았다. 먼저 문장길이에 대한 과적합 보정을 하기 위해 보정계수를 구해야 한다. 이후. n-gram(1~4)을 통한 순서쌍들이 얼마나 겹치는지 측정(precision)하면 된다. n-gram: 문장에서 단.. 2023. 5. 10. Illustrating Reinforcement Learning from Human Feedback (RLHF)이란 배경 좋은 텍스트 생성 모델을 만들기 위해 BLEU 또는 ROUGE와 같은 사람이 직접 평가한 메트릭을 정의해 평기를 진행해왔다. 따라서 생성된 텍스트에 대해 인간의 피드백을 성능 측정에 활용하고, 피드백을 기반으로 손실을 사용해 모델을 최적화 하면 어떨까? 라는 아이디어에서 RLHF(Reinforcement Learning from Human Feedback)의 개념이 나왔다. 아이디어의 기본은 강화 학습의 방법을 사용하여 사람의 피드백으로 언어 모델을 직접 최적화 한 것이다. 이 개념은 ChatGPT에서 사용되었다. RLHF: Let’s take it step by step 인간 피드백을 통한 강화학습은 어려운 컨셉이다. 왜냐하면 다중 모델의 훈련 과정과 각 단계마다 다른 배포 과정을 거쳐야 하기 때.. 2023. 5. 9. 이전 1 2 3 4 5 다음 728x90