▲kuroneko 2023-06-01 | parent | favorite | on: State of GPT [42분 영상](build.microsoft.com)요약해보니 이렇게 나오는군요. GPT와 같은 대형 언어 모델은 대량의 텍스트 데이터에 대한 사전 훈련 단계와 특정 작업에 대한 세부 조정으로 이루어진 미세 조정을 통해 훈련됩니다. 사전 훈련은 일반적인 언어 표현을 학습하기 위해 시퀀스에서 다음 단어를 예측하는 것을 포함합니다. 미세 조정은 모델을 특정 작업에 적응시킵니다. 프롬프팅(prompting)은 모델에 응답을 생성하도록 프롬프트(prompt)를 제공하여 미세 조정 없이 언어 모델을 작업에 적용하는 데 사용될 수도 있습니다. 지도 학습 미세 조정은 프롬프트와 이상적인 응답의 레이블이 지정된 데이터를 사용하여 어시스턴트 모델을 훈련합니다. 인간 피드백에서 강화 학습을 수행하여 인간이 높게 평가하는 응답을 생성하도록 어시스턴트 모델을 훈련함으로써 성능을 더욱 개선할 수 있습니다. 모델의 작업 과정을 단계별로 보여주거나 예시를 제공하는 프롬프팅 엔지니어링 기술은 언어 모델의 성능을 향상시킬 수 있습니다. 언어 모델은 인간이 가지고 있는 내부 모노로그 및 추론 능력이 부족하기 때문에 프롬프팅이 이를 보완해야 합니다. 언어 모델에 외부 도구, 계산기 및 지식 베이스에 대한 액세스 권한을 부여하면 성능을 향상시킬 수 있습니다. 특정 작업을 위해 언어 모델의 일부를 미세 조정하는 것은 성능을 높일 수 있지만 더 복잡합니다. 편견, 추론 오류 및 공격에 취약하다는 언어 모델의 여러 가지 제한 사항이 여전히 존재합니다.
요약해보니 이렇게 나오는군요.