전체 글

싱싱한 국내산 자연어를 탐구합니다.
2023년의 회고 (부제1 : 회고 이렇게 쓰면 되나요? 부제2 : 1년짜리 일기) 2022년 회고는 틀에 맞춰 작성했었는데, 이번에는 그냥 기억에 남는 것들만 마음대로 작성해보려고 한다. 1. 응애 나 아기 4학년 1-1) PyTorch 옹알이 23년 초 겨울방학에 김성훈 교수님의 PyTorch 강의를 들으며, 처음으로 PyTorch를 익혔다. 그 전까진 Tensorflow만 사용했었는데, 왜 연구자들이 PyTorch를 선호하는지 느낄 수 있었다. (이제는 Tensorflow보다 PyTorch를 더 익숙해진 몸이 되어버렸는데, 최근에는 PyTorch Lightning을 배워야겠다는 생각이 든다.) 1-2) NLP 논문 리뷰 마찬가지로 23년 초 겨울방학에는 교내 연구실에서 자연어처리 관련 기초 논문들을..
· NLP
Topics for Language Modeling 정렬에 관한 모든 것 미세 조정, 인스트럭션 조정, 강화 학습 (사람의 피드백 포함), 프롬프트 튜닝 및 컨텍스트 내 정렬 데이터에 관한 모든 것 (수동 또는 알고리즘 분석, 큐레이션, 생성을 통한) 사전 학습 데이터, 정렬 데이터, 합성 데이터 평가에 관한 모든 것 벤치마크, 시뮬레이션 환경, 확장 가능한 감독, 평가 프로토콜 및 메트릭, 인간 및 기계 평가 사회적 영향에 관한 모든 것 편견, 형평성, 오용, 일자리, 기후 변화 및 그 이상 안전에 관한 모든 것 보안, 개인정보 보호, 잘못된 정보, 적대적 공격 및 방어 LM의 과학 스케일링 법칙, 근본적인 한계, 새로운 기능, 신비화, 해석 가능성, 복잡성, 훈련 역학, 그루킹, LM에 대한 학습 이..
· Paper Review
arXiv : code : Before Reading 논문 제목을 보고 해당 모델이 어떤 방법론을 바탕으로 할지 가설을 세워봅시다. 논문의 main figure를 보고 전체 흐름을 유추해봅시다. 이해되지 않는 파트가 있나요? 있다면 미리 표시해두고 집중적으로 읽어봅시다. 해당 모델을 구현한 코드가 있는지 체크해봅시다. 1. Introduction 논문이 다루는 task Input : Output : 해당 task에서 기존 연구 한계점 2. Related Work 3. 제안 방법론 Main Idea For Pretrained language model paper 해당 모델이 어떤 차별점을 가지나요 ? 해당 모델은 어떤 모델을 토대로 만들어졌나요? 해당 모델의 pretraining 목적함수는 무엇인가요? 실..
· Paper Review
예전부터 논문 읽기와 논문 리뷰의 중요성에 대해서 느끼고 있었지만, 여러 이유로 실천에 옮기지는 못했다. 하지만 최근 여러 경험들을 겪고 깨달은 바가 있어 늦기 전에 더 성장하고자 곧바로 실천에 옮기고자 한다. 목표는 일주일에 1편 이상의 논문을 읽고, 블로그에 1회 이상 리뷰하는 것이다. 마음 같아서는 매일 1편씩 읽고, 한 주에 2~3편의 리뷰를 남기고 싶지만, 실현 가능한 목표로 수정했다. 구체적인 다짐은 아래와 같다. 읽는 속도가 빨라져 시간이 남는다면, 일주일에 2~3편으로 늘린다. 중간/기말, 논문 마감 등, 특정 이벤트에 상관없이 꾸준히 읽는다. (휴가기간 제외) 번역기 사용을 자제한다. 모르는 단어는 사전을 찾아가며 읽는다. 본문 뿐만 아니라 Related Work에 적힌 문장들도 음미하며..
· NLP
2023년 12월에 열린 Devfest Cloud 2023에 참가하여, Google ML Tech Lead인 Erwin Huizenga님께서 발표하셨던 How to do supervised tuning for a language model using Vertex AI 세션을 듣고 정리한 글입니다. "How to do supervised tuning for a language model using Vertex AI" 관련 시리즈 (1) Why Adapter Tuning? (2) Supervised Fine Tuning (3) RLHF (Reinforcement Learning from Human Feedback) 0. RLHF 관련 논문 [NeurIPS 2017] Deep Reinforcement Lear..
· NLP
2023년 12월에 열린 Devfest Cloud 2023에 참가하여,Google ML Tech Lead인 Erwin Huizenga님께서 발표하셨던How to do supervised tuning for a language model using Vertex AI 세션을 듣고 정리한 글입니다."How to do supervised tuning for a language model using Vertex AI" 관련 시리즈(1) Why Adapter Tuning?(2) Supervised Fine Tuning(3) RLHF (Reinforcement Learning from Human Feedback)1. 프롬프트 디자인의 한계 (Limitations of Prompt Design)프롬프트의 단어나 단어 ..
oneonlee
One Only