Serving 서버 API

TensorFlow 서빙 API 레퍼런스 tensorflow::serving Classes tensorflow::serving::AspiredVersionPolicy An interface for the policy to be applied for transitioning servable versions in a servable stream. tensorflow::serving::AspiredVersionPolicy::ServableAction Action and the id of the servable associated with it. tensorflow::serving::AspiredVersionsManager A manager that implements the Target<Loader> API which uses aspired-versions callbacks to dictate which servable versions to load. tensorflow::serving::AspiredVersionsManager::Options Config options and pluggable objects that will be used by the AspiredVersionsManager.

More

서빙 아키텍처 개요

텐서 플로 서빙은 유영하며 머신러닝을 위한 고수준 서빙 모델입니다. 제품 환경을 고려해 디자인 됐습니다. 텐서 플로 서빙은 동일 서버 아키텍처와 API를 유지하고 새로운 알고리즘과 환경을 손쉽게 deploy있습니다. 텐서 플로 서빙은 텐서 플로 모델을 즉시 통합할 수 있고, 다른 타입의 모델과 데이터로 확장할 수 있습니다. 키 컨셉 텐서 플로 서빙 아키텍처 이해를 위해서, 키 컨셉을 이해 할 필요가 있습니다. Servables Servables은 텐서 플로 서빙의 주요 개념입니다. Servables은 Servables은 클라이언트가 계산 할 때 사용하는 기본 개체입니다.

More

서빙 모델

텐서 플로 서빙은 유영하며 머신러닝을 위한 고수준 서빙 모델입니다. 제품 환경을 고려해 디자인 됐습니다. 텐서 플로 서빙은 동일 서버 아키텍처와 API를 유지하고 새로운 알고리즘과 환경을 손쉽게 deploy있습니다. 텐서 플로 서빙은 텐서 플로 모델을 즉시 통합할 수 있고, 다른 타입의 모델과 데이터로 확장할 수 있s습니다. 텐서 플로 서빙의 자세한 개발 문서는 아래와 같습니다. Architecture Overview Server API REST Client API

More

Meena 논문, 리서치 리뷰

이 문서는 Meena 논문의 연구 결과를 되짚어 보기 위한 리서치 리뷰 문서이며 새로운 연구 결과를 포함하고 있지 않습니다. Meena는 멀티턴 도메인 챗봇. end-to-end 방식의 데이터 학습 진행. public 도메인인 소셜 미디어 대화를 대상으로 하였음. 341 GB의 텍스트를 학습하였고 26억(2.6 billions) 파라메터를 사용한 뉴럴넷입니다. 다음 토큰의 perplexity가 최소화 되도록 학습됨. 낮은 perplexity는 샘플에 대해 잘 설명할 수 있는 확률분포를 가졌음을 의미함 OpenAI GPT-2에 비해 1.7배 모델이 크고, 8.5배의 학습 데이터를 사용하였습니다.

More

NLP 데이터셋 소개(SQuAD, KoQuAD, KLUE)

SQuAD 최근에는 기계 독해를 평가하기 위한 SQuAD(The Stanford Question Answering Dataset)와 같은 위키피디아 기반 데이터 셋이 있다. 이 데이터셋은 기계 독해 알고리즘을 객관적으로 평가할 수 있는 벤치마크 데이터 셋으로 알고리즘의 우수성을 평가하기 위해 리더 보드를 운영하고 있다. 전체 데이터셋의 사이이즈는 학습셋=40MB, 개발셋=4MB정도이다. https://rajpurkar.github.io/SQuAD-explorer/ SQuAD 2.0 데이터 셋의 구조는 다음과 같다. { "version": "v2.0", // SQuAD 버전 정보 "data": [ { "title": "Normans", // 출처 문서의 제목 "paragraphs": [ { "qas": [ { "question": "In what country is Normandy located?

More

한글에서 사용하는 문장 부호

문장 부호는 문장간의 관계나 문장 내의 논리 구조를 명시해 정확한 의미 전달에 필요한 부호입니다. 본 글은 2017에 고시된 한글 맞춤법 일부 개정안의 문장 부호들을 소개한 문장 부호 해설을 참고 하였습니다. 문장 부호 표 의미 사용 예제 1. 마침표(.) 서술, 명령, 청유 등을 나타내는 문장 부호의 끝에 사용 제 손을 꼭 잡으세요. 2. 물음표(?) 의문문이나 의문을 나타내는 어구의 끝에 사용 점심 먹었어?

More

결합 확률 분포

랜덤 변수 $X, Y, …,$ 는 확률 공간(probaility space)에 정의됩니다. 여기서 $X, Y$ 는 확률 분포(probability distribution)을 의미합니다. 이들 확률 분포 $X, Y$에 속한 값은 이산 집합 내에 속하거나 특정 범위 내에 속합니다. 이때 두 랜덤 변수 $X, Y$는 이변수 분포(bivariate distribution)입니다. 결합 확률 분포(joint probability distribution)는 결합 누적 분포 함수(joint cumulative distribution function) 또는 결합 확률 밀도 함수(joint probability density function )라고 부르기도 합니다. 결합 화률 분포는 두 분포를 찾는데 사용됩니다.

More

한글 9품사 5언

품사(part-of-speech)는 공통 성질이 비슷한 분류이며 한글에서는 9품사로 나뉩니다. 명사, 대명사, 수사, 동사, 형용사, 관형사, 부사, 조사, 감탄사 그리고 위 9품사는 문장내의 역할에 따라 5언으로 나뉩니다. 체언, 용언, 수식언, 관계언, 독립언 5언의 역할과 품사 구성은 아래와 같습니다. 언 역할 품사 체언 문장에서 주어나 목적어 등의 용도로 쓰이는 역할 명사, 대명사, 수사 용언 문장에서 주어의 서술 용도로 쓰이는 역할 동사, 형용사 수식언 문장에서 다른 말을 꾸며주는 역할 관형사, 부사 관계언 체언 뒤에 붙어 문법 관계를 나타내 주거나, 특별한 의미를 더해주는 역할 조사 독립언 감정을 나타내는 역할 감탄사

More

Bag-Of-Words 모델

Bag-Of-Words Bag-Of-Word는 순서를 단어 순서를 고려하지 않고 출현 빈도만 고려합니다. Bag-Of-Words 관점에서 “the dog bite you"와 “you bite the dog"는 어순은 다르지만 동일한 벡터로 표현 되어 동일한 문장으로 취급됩니다. 이들 두 문장에 대한 BoW를 만드는 방법은 두 단계로 진행합니다. 데이터 준비 : 텍스트를 수집합니다. 그리고 토큰화(tokenize)를 합니다. 어휘 벡터 만들기 : 단어를 토큰화(tokenize) 하여 어휘(vocabulary 벡터(0으로 초기화된 zero 벡터)를 만듭니다. 단어가 문서에 있으면 1, 단어가 문서에 없으면 0으로 표시합니다. {"the":1, "dog":1, "bite":1 ,"you",1} {"the":1, "dog":1, "bite":1 ,"you",1} BoW를 코드로 구현해 보겠습니다.

More

자연어 처리란 무엇인가?

자연어 처리는 컴퓨터가 사람의 언어를 이해하고 컴퓨터와 사람이 상호 작용할 수 있도록 돕는 기술입니다. 자연어 처리의 궁극적인 목표는 컴퓨터가 사람과 같은 언어지능(linguistic Intelligence)을 갖추도록 하는 것 입니다. 언어지능은 사람의 언어 이해하고 다시 사람의 언어로 표현할 수 있는 능력입니다. 컴퓨터가 사람의 언어를 이해하면 사람 처럼 주어진 문제를 해결 하거나 언어에 나타난 말들을 개념화해 생각할 수 있는 추상화 추론(abstract reasoning) 능력도 갖출 수 있게 됩니다. 자연어와 인공어 자연어(natural languge)는 사람이 일상적으로 사용하는 언어이며 사람과 사람이 의사 소통을 위해 자연적으로 발생한 언어입니다.

More