본문 바로가기

Book

(20)
쉽고 빠르게 익히는 실전 LLM - CHAPTER 2. LLM을 이용한 의미 기반 검색 텍스트 임베딩 단어나 구문을 맥락적 의미를 기반으로 다차원 공간에서 기계가 읽을 수 있는 수치 벡터로 표현하는 방법 > 두 구문이 유사하다면, 구문들의 벡터들은 유클리드 거리가 가깝다 텍스트 임베더 단어 또는 구문을 받아 벡터로 변환, 텍스트를 벡터로 표현하는 품질을 결정하기 때문에 중요 > 클로즈드 소스인 OpenAI의 임베딩 엔진은 여러 가지 옵션을 제공, 한 번의 API 호출로 모두에 대한 임베딩을 생성할 수 있어 효율적임 > 오픈소스인 트랜스포머 라이브러리의 BERT를 이용한 Bi-encoder는 두 개의 BERT 모델(입력과 출력 텍스트 쌍)을 인코딩하여 각 사이의 의미적 관계를 포착함 벡터 다시 텍스트로 되돌릴 수 없지만, 인코딩된 상태에서 점수를 비교할 수 있는 텍스트의 새로운 표현법 의미 ..
쉽고 빠르게 익히는 실전 LLM - CHAPTER 1. LLM이란 LLM (대규모 언어 모델) 트랜스포머 아키텍처에서 파생된 AI 모델 사람의 언어, 코드 등을 이해하고 생성하기 위해 설계됨 의료 산업의 전자 의무 기록(EMR)처리, 임상시험 매칭, 신약 발견, 사기 탐지, 감정 분석, 트레이딩 전략 등에 사용 임베딩 텍스트를 기계가 읽을 수 있도록 변환 고차원 공간에서 단어, 구절, 또는 토큰의 수학적 표현 토큰화 텍스트를 가장 작은 이해 단위인 토큰으로 분해하는 과정 토큰들은 의미를 가진 정보 조각으로 어텐션 계산에 입력으로 사용됨 토큰 > 초기 임베딩 > 어텐션 계산 셀프 어텐션 시퀀스 내 각 단어가 다른 모든 단어에 '주의를 기울이게' 하여 단어 간 장거리 종속성과 문맥 관계를 포착 어텐션 이전에는 대부분의 신경망이 모든 입력을 동등하게 처리하고, 예측을 위해 ..
Logical Thinking - 테루야 하나코 한때 커뮤니케이션 능력에 관심이 많을 때 읽었던 책이었는데 다시 읽어보니 좋은 내용이 많았다. 책 내용을 다시 정리하고 포트폴리오를 만들때나 직장을 다니게 될 때 두고두고 읽어봐야겠다. Point 비즈니스상의 커뮤니케이션이란 상대방이 듣고 싶어하는 과제에 맞춰서 기대하는 반응을 고르고, 그에 맞는 답변을 제시하는 것이다. 기대하는 반응이란 상대가 제시한 과제에 대한 단순한 이해나 피드백, 구체적 방법을 의미한다. 또한 답변은 결론과 그것을 뒷받침하는 근거(사실, 판단)와 결론을 구체적으로 설명하는 방법(액션) 두 가지로 나뉜다. 근거의 경우 사실과 판단을 구분하여 설명해야 한다. 방법의 경우 보편적인 공리를 제시하는 것보다 구체적인 답변을 준비해야 한다. 논리적으로 상대방을 설득하기 위해서는 청자에게 불..
사용자를 생각하게 하지 마 - 스티브 크룩 책을 읽고 인상깊었던 글귀를 정리해보고자 한다. Point 편리하게 쓸 수 있는 사이트나 앱을 만들기 위해 해야 할 가장 중요한 일은 "사용자를 고민에 빠뜨리지 마라"이다. 물건을 사용하는 데 지장만 없다면 작동 방식을 이해하지 못한다 해도 아무런 문제가 없다. 그리고 이러한 현상은 지적인 능력이 부족해서라기보다 관심이 없어서 발생한다. 사용자에게 앱의 구조와 작동방식은 별로 중요하지 않다. 따라서 물건이 작동하기만 한다면 그 방식이 비효율적이라 하더라도 굳이 더 좋은 방법을 찾지 않는다. 그냥 계속해서 사용한다. 일부러 다른 것과 비교하고 찾아보는 일은 드물다. 디자이너들은 관례를 따르지 않고 새로운 방법을 재창조해야 한다는 유혹에 시달린다. 그러나 이를 재창조하는데 들인 시간에 비해 원점으로 되돌아오..