| --- |
| license: apache-2.0 |
| tags: [gpt2] |
| language: ko |
| --- |
| |
| # KoGPT2-small |
|
|
| | Model | Batch Size | Tokenizer | Vocab Size | Max Length | Parameter Size | |
| |:---: | :------: | :-----: | :------: | :----: | :------: | |
| |GPT2 | 64 | BPE | 30,000 | 1024 | 108M | |
|
|
|
|
| # DataSet |
| - AIhub - ์น๋ฐ์ดํฐ ๊ธฐ๋ฐ ํ๊ตญ์ด ๋ง๋ญ์น ๋ฐ์ดํฐ (4.8M) |
| - KoWiki dump 230701 (1.4M) |
|
|
|
|
| # Inference Example |
|
|
| ```python |
| from transformers import AutoTokenizer, GPT2LMHeadModel |
| |
| text = "์ถ๊ทผ์ด ํ๋ค๋ฉด" |
| |
| tokenizer = AutoTokenizer.from_pretrained('Datascience-Lab/GPT2-small') |
| model = GPT2LMHeadModel.from_pretrained('Datascience-Lab/GPT2-small') |
| |
| inputs = tokenizer.encode_plus(text, return_tensors='pt', add_special_tokens=False) |
| |
| outputs = model.generate(inputs['input_ids'], max_length=128, |
| repetition_penalty=2.0, |
| pad_token_id=tokenizer.pad_token_id, |
| eos_token_id=tokenizer.eos_token_id, |
| bos_token_id=tokenizer.bos_token_id, |
| use_cache=True, |
| temperature = 0.5) |
| outputs = tokenizer.decode(outputs[0], skip_special_tokens=True) |
| |
| # ์ถ๋ ฅ ๊ฒฐ๊ณผ : '์ถ๊ทผ์ด ํ๋ค๋ฉด ์ถ๊ทผ์ ํ์ง ์๋ ๊ฒ์ด ์ข๋ค. ํ์ง๋ง ์ถํด๊ทผ ์๊ฐ์ ๋ฆ์ถ๋ ๊ฒ์ ์คํ๋ ค ๊ฑด๊ฐ์ ์ข์ง ์๋ค.. ํนํ๋ ์ฅ์๊ฐ์ ์
๋ฌด๋ก ์ธํด ํผ๋ก๊ฐ ์์ด๊ณ ๋ฉด์ญ๋ ฅ์ด ๋จ์ด์ง๋ฉด, ํผ๋ก๊ฐ์ด ์ฌํด์ ธ์ ์ ๋ค๊ธฐ ์ด๋ ค์ด ๊ฒฝ์ฐ๊ฐ ๋ง๋ค. ์ด๋ฐ ๊ฒฝ์ฐ๋ผ๋ฉด ํ์๋ณด๋ค ๋ ๋ง์ ์์ผ๋ก ๊ณผ์์ ํ๊ฑฐ๋ ๋ฌด๋ฆฌํ ๋ค์ด์ดํธ๋ฅผ ํ ์ ์๋ค. ๋ฐ๋ผ์ ์๋จ ์กฐ์ ๊ณผ ํจ๊ป ์์ ๋ณด์ถฉ์ ์ ๊ฒฝ ์จ์ผ ํ๋ค. ๋ํ ๊ณผ๋ํ ์์์ด ์ฒด์ค ๊ฐ๋์ ๋์์ ์ฃผ๋ฏ๋ก ์ ์ ํ ์ด๋๋์ ์ ์งํ๋ ๊ฒ๋ ์ค์ํ๋ค.' |
| ``` |