sudy-super
commited on
Commit
•
a37d026
1
Parent(s):
33e1f84
Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,51 @@
|
|
1 |
---
|
2 |
license: llama2
|
|
|
|
|
3 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
license: llama2
|
3 |
+
datasets:
|
4 |
+
- Manual-Dataset-Creation-Project/Malum-130
|
5 |
---
|
6 |
+
# Logical-elyza-llama2-7b-fast-instruct
|
7 |
+
### Description
|
8 |
+
Logical-elyza-llama2-7b-fast-instructは、[ELYZA-japanese-Llama-2-7b-fast-instruct](https://huggingface.co/elyza/ELYZA-japanese-Llama-2-7b-fast-instruct)をベースとして論理能力を向上させるためにFine-tuningを行ったモデルです。
|
9 |
+
|
10 |
+
### Usage
|
11 |
+
```python
|
12 |
+
import torch
|
13 |
+
from transformers import AutoModelForCausalLM, AutoTokenizer
|
14 |
+
|
15 |
+
B_INST, E_INST = "[INST]", "[/INST]"
|
16 |
+
B_SYS, E_SYS = "<<SYS>>\n", "\n<</SYS>>\n\n"
|
17 |
+
DEFAULT_SYSTEM_PROMPT = "あなたは誠実で優秀な日本人のアシスタントです。"
|
18 |
+
text = "旅行に行くと高層ビルがたくさん建っていました。これからどのようなことが推測できますか?"
|
19 |
+
|
20 |
+
model_name = "Manual-Dataset-Creation-Project/Logical-elyza-llama2-7b-fast-instruct"
|
21 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
22 |
+
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype="auto")
|
23 |
+
|
24 |
+
if torch.cuda.is_available():
|
25 |
+
model = model.to("cuda")
|
26 |
+
|
27 |
+
prompt = "{bos_token}{b_inst} {system}{prompt} {e_inst} ".format(
|
28 |
+
bos_token=tokenizer.bos_token,
|
29 |
+
b_inst=B_INST,
|
30 |
+
system=f"{B_SYS}{DEFAULT_SYSTEM_PROMPT}{E_SYS}",
|
31 |
+
prompt=text,
|
32 |
+
e_inst=E_INST,
|
33 |
+
)
|
34 |
+
|
35 |
+
|
36 |
+
with torch.no_grad():
|
37 |
+
token_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt")
|
38 |
+
|
39 |
+
output_ids = model.generate(
|
40 |
+
token_ids.to(model.device),
|
41 |
+
max_new_tokens=256,
|
42 |
+
pad_token_id=tokenizer.pad_token_id,
|
43 |
+
eos_token_id=tokenizer.eos_token_id,
|
44 |
+
)
|
45 |
+
output = tokenizer.decode(output_ids.tolist()[0][token_ids.size(1) :], skip_special_tokens=True)
|
46 |
+
print(output)
|
47 |
+
"""
|
48 |
+
もしもその都市が新興国である場合、高層ビルが多く建っていることは少ないでしょう。一方で、先進国の中心部には高層ビルが多く立地している傾向にあります。
|
49 |
+
よって、旅行先で見つけた高層ビルが多い現象は先進国の中心部の特徴を示しており、ここから推測すると先進国の可能性が高いでしょう。
|
50 |
+
"""
|
51 |
+
```
|