깃허브 브랜치 안에서 특정 파일이나 폴더(directory)만 삭제하고 싶을 때가 있다.깃클론한 상태에서 파일을 지우고 푸쉬할 수도 있지만 간단하게 깃허브 웹에서 지우는 방법을 알아보자. 리트코드 문제를 풀기 시작하면서 백준허브와 비슷한 기능의 LeetHub 라는 확장 프로그램을 설치했다. 백준허브와 달리 리트허브는 연결된 레파지토리 안에 바로 문제가 커밋된다. 게다가 LeetHub V3 기준 한 문제를 제출할 때마다 문제+readme file이 커밋되면서 커밋 기록이 2개씩 찍힌다. 이 문제는 리트허브를 커스텀해서 해결했고, 기존에 제출했던 디렉토리들은 삭제하려고 한다. 삭제하려는 폴더가 있는 레파지토리에 들어가서 해당 폴더를 클릭한다. 우측 상단 점 세 개를 누르면 Delete directo..
Sequence-to-Sequence트랜스포머 : 기계 번역(machine translation) 등 시퀀스-투-시퀀스 과제를 수행하기 위한 모델시퀀스 : 단어(word)의 나열. 문장시퀀스-투-시퀀스 : 특정 속성을 지닌 시퀀스를 다른 속성의 시퀀스로 변환하는 작업. 예) 번역 모델소스 언어(바꿀 특성) -> 타깃 언어(반환되는 언어)시퀀스-투-시퀀스 태스크는 소스와 타깃의 길이가 달라도 해당 과제 수행에 문제가 없어야함 인코더와 디코더트랜스포머는 시퀀스-투-시퀀스 과제 수행에 특화된 모델임의의 시퀀스를 해당 시퀀스와 속성이 다른 시퀀스로 변환하는 작업이라면, 꼭 기계 번역이 아니어도 잘 동작함시퀀스-투-시퀀스 과제를 수행하는 모델은 대개 encoder, decoder 두 개 파트로 구성됨인코딩 : 인..
미리 학습된 언어 모델https://ratsgo.github.io/nlpbook/docs/lmBERT, GPT가 주목받는 이유 -> 이전에 있었던 모델보다 성능이 좋기 때문공통점 : 미리 학습된 언어 모델(pretrained language model) -> 전이학습 언어 모델단어 시퀀스에 확률을 부여하는 모델단어 시퀀스를 입력받아 해당 시퀀스가 얼마나 그럴듯한지 확률을 출력하는 모델순방향 언어 모델임의의 단어 시퀀스가 해당 언어에서 얼마나 자연스러운지 이해하고 있는 모델 구축조건부 확률에따라 언어 모델의 계산 로직을 이전 단어들(context)가 주어졌을 때 다음 단어 맞추기로 정해도 목표 달성 가능문장 앞부터 뒤로, 사람이 이해하는 순서대로 계산하는 모델GPT가 이같은 방식으로 pretrain 수행G..
명령 프롬프트에서 pyqt를 install 하려는데 아래의 오류가 발생했다. 'pip'은(는) 내부 또는 외부 명령, 실행할 수 있는 프로그램, 또는 배치 파일이 아닙니다. 이전에도 프롬프트로 프로그램 설치한 적이 있어서 왜 갑자기 이런 오류가 생겼는지 의문이었다. 어떻게 설치했는지 생각해보니까 그동안 conda prompt를 사용했던 것 같다. 시스템 환경 변수를 확인해보니 콘다 경로는 잘 등록되어 있었다. 환경변수 등록은 생각보다 간단하다. 1. 윈도우 환경변수 설정 윈도우 검색창에 시스템 환경 변수 편집을 검색하거나 window + R 키를 눌러 시스템 항목을 연다. 시스템 속성 상단에서 고급을 선택하고 하단의 환경 변수를 클릭한다. 새로 열린 환경 변수 창에서 하단의 Path를 선..