keivan commited on
Commit
901b32f
1 Parent(s): 1eda2df

Add SetFit model

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false
7
+ }
README.md CHANGED
@@ -1,3 +1,245 @@
1
  ---
2
- license: apache-2.0
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ library_name: setfit
3
+ tags:
4
+ - setfit
5
+ - sentence-transformers
6
+ - text-classification
7
+ - generated_from_setfit_trainer
8
+ metrics:
9
+ - accuracy
10
+ widget:
11
+ - text: سیب زمینی خوب بود ولی ساندویچ اصلا جالب نبود کاملا سفت بود
12
+ - text: شبیه شوخی بود بیشتر ، نوشتم ساندویچ بدون قارچ و خودشوم تو فاکترش نوشته ، اما
13
+ توش یه دنیا قارچ داشت خیلی هم سرد بود + خیلی هم دیر آورد
14
+ - text: همه چیز خوب و خوشمزه بود، جز نان سنگک، مثل نان باگت میتوانستی بینش را باز
15
+ کنی و مواد بزاری، اون کله پاچه خوشمزه و این نون بسیار بد به هم نمیان
16
+ - text: خوبه ولی کیفیت ظروف مناسب نیست
17
+ - text: متاسفانه سفارش بنده را اشتباه آورده بودند.و با یک سفارش دیگر که از شرکت به
18
+ صورت تلفنی سفارش گذاشته بودند، اشتباه گرفته بودند.
19
+ pipeline_tag: text-classification
20
+ inference: true
21
+ base_model: m3hrdadfi/roberta-zwnj-wnli-mean-tokens
22
+ model-index:
23
+ - name: SetFit with m3hrdadfi/roberta-zwnj-wnli-mean-tokens
24
+ results:
25
+ - task:
26
+ type: text-classification
27
+ name: Text Classification
28
+ dataset:
29
+ name: Unknown
30
+ type: unknown
31
+ split: test
32
+ metrics:
33
+ - type: accuracy
34
+ value: 0.13636363636363635
35
+ name: Accuracy
36
  ---
37
+
38
+ # SetFit with m3hrdadfi/roberta-zwnj-wnli-mean-tokens
39
+
40
+ This is a [SetFit](https://github.com/huggingface/setfit) model that can be used for Text Classification. This SetFit model uses [m3hrdadfi/roberta-zwnj-wnli-mean-tokens](https://huggingface.co/m3hrdadfi/roberta-zwnj-wnli-mean-tokens) as the Sentence Transformer embedding model. A [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance is used for classification.
41
+
42
+ The model has been trained using an efficient few-shot learning technique that involves:
43
+
44
+ 1. Fine-tuning a [Sentence Transformer](https://www.sbert.net) with contrastive learning.
45
+ 2. Training a classification head with features from the fine-tuned Sentence Transformer.
46
+
47
+ ## Model Details
48
+
49
+ ### Model Description
50
+ - **Model Type:** SetFit
51
+ - **Sentence Transformer body:** [m3hrdadfi/roberta-zwnj-wnli-mean-tokens](https://huggingface.co/m3hrdadfi/roberta-zwnj-wnli-mean-tokens)
52
+ - **Classification head:** a [LogisticRegression](https://scikit-learn.org/stable/modules/generated/sklearn.linear_model.LogisticRegression.html) instance
53
+ - **Maximum Sequence Length:** 128 tokens
54
+ - **Number of Classes:** 11 classes
55
+ <!-- - **Training Dataset:** [Unknown](https://huggingface.co/datasets/unknown) -->
56
+ <!-- - **Language:** Unknown -->
57
+ <!-- - **License:** Unknown -->
58
+
59
+ ### Model Sources
60
+
61
+ - **Repository:** [SetFit on GitHub](https://github.com/huggingface/setfit)
62
+ - **Paper:** [Efficient Few-Shot Learning Without Prompts](https://arxiv.org/abs/2209.11055)
63
+ - **Blogpost:** [SetFit: Efficient Few-Shot Learning Without Prompts](https://huggingface.co/blog/setfit)
64
+
65
+ ### Model Labels
66
+ | Label | Examples |
67
+ |:------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
68
+ | 7 | <ul><li>'کیفیت خوب بود ولی سرد تحویل داده شد'</li><li>'حجم ساندويچ ها كم شده'</li><li>'مغزو زبان عالي بود مثل هميشه اما دونر خشك بود و خيلي طول كشيد برسه'</li></ul> |
69
+ | 4 | <ul><li>'کباب ترکی مخلوط افتضاح ، پر از غضروف مرغ، تو رو خدا یه کم دلسوزتر باشید واقعا من جمعه گشنه موندم، بندری بی مزه بود و طعم تندی و ادویه نداشت، زبان بد نبود و اونم بخاطر پنیر پیتزایی که داشت'</li><li>'ساندويچ هات داگ بسيار بي كيفيت بود ، بهاران ديگه اصلا مثل قديم نيست ، و اين چندمين بار هست كه اين مشكل تكرار ميشه'</li><li>'اندازه ساندویچها خیلی کوچیک شده و گوشت چیزبرگر سفت و دورش سوخته بود، کباب ترکی خوشمزه بود'</li></ul> |
70
+ | 3 | <ul><li>'حجم غذای ته چین قبلا خیلی خوب بود الان نصف شده دقیقا'</li><li>'سلام ، کیفیت غذا مناسب بود . ما به صورت اینترنتی پرداخت را انجام دادیم ولی پیک هزینه حمل رو می خواست بگیره پول خرد نداشت حدود یک ربع معطل شدیم .پیشنهاد میکنم هزینه ارسال را هم اینترنتی بگیرین و اگر مشکلی هست حداقل اونی که می فرستین 2 هزار تومن پول جیبش باشه.'</li><li>'غذاش بد نبود اما انتظار بیشتری داشتم.'</li></ul> |
71
+ | 5 | <ul><li>'خوشمزه ترين لوبيا پلويي كه تا حالا خورده بودم! عالي بود عالي! سه شنبه ها حتماً امتحان كنيد..?????????? ولي هيچوقت قيمه رو امتحان نكنيد خيلييي بد بود.????'</li><li>'گریل دریایی فوق العاده بود، سس کره لیمو واقعا خوب بود. پنه خیلی معمولی بود .برگر مامامیا هم بزرگ بود تخم مرغ داشت باحال بود. سالاد کنار برگر و پنینی یونانی بود عالی.سالاد مامامیا خیلی بزرگ بود کینوآ نخورده بودم اما دوست داشتم.'</li><li>'خیلی رستوران خوبی است ولی قیمت غذاهاش خیلی زیاد هست و بعضی وقتها غذا بسیار عالی و گاهی بی کیفیت میشود از مایسا توقعم این است که همیشه عالی باشد'</li></ul> |
72
+ | 0 | <ul><li>'مزه پیتزا خیلی معمولی و نامتناسب با قیمت بود. مزه گوشت هم اصلا خوب نبود.'</li><li>'مواد استفاده شده کیفیت پایین داشت و تازه نبود و از اون گذشته واقعا هیچ طعمی نداشت، تمام سعیمون رو کردیم با کمک انواع سس ها و ادویه جات طعمی به غذا بدیم ولی واقعا نشد سلیقه مشتری به خاطر دسترسی به انواع رستورانها ارتقا پیدا کرده لطفا کمی مقایسه کنید و ارتقا بدید خیلی سادست پنیر مهمترین جزیی از پیتزاست که به اون مزه میده ولی دریغ از اندکی صعم!!!'</li><li>'کیفیت ژامبون وسوسیس وکالباس بکار رفته بی نهایت پایین بود وباقیت پیتزا تناسب نداشت در منو نوشته شده بود سالامی داره اما من هیچ ندیدم .'</li></ul> |
73
+ | 8 | <ul><li>'سالاد تازه وخوب ولی سس بسیار کوچک که معمولا مخصوص ساندویچ هست حیفه که سالاد خوب سس خوب نداشته باشه ممنون'</li><li>'برنج قبلا بهتر بود'</li><li>'اصلا به توضیحات توجه نشده بود'</li></ul> |
74
+ | 6 | <ul><li>'همبرگرها کاملا سرد بود، داخل همبرگر خیار گذاشته شده بود که تا به حال ما تجربه خیار خام داخل همبرگر رو نداشتیم!!! در کل خیلی خیلی معمولی و در حد فست فودهای بسیاااار متوسط بود نه با هزینه بالای۲۰۰ تومن متاسفانه ارزش نداشت'</li><li>'غذا خوب بود نحوه تحویل توسط پیک اسنپ افتضاح'</li><li>'غذا سرد و بی نمک بود ، همرو با هم ریخته بود تو ظرف فرستاده بود ، باید تفکیک می کردن ، نون خشک و بیات بود ، بسته بندی شون اصلا خوب و بهداشتی نبود'</li></ul> |
75
+ | 2 | <ul><li>'بسیار کیفیت پایینی داشت ..اب طمع خیلی بدی داشت و زبان و گوشت مونده و سیاه بود'</li><li>'اکبر جوجه سفارش دادم یعنی بی کیفیت تر از این تا حالا ندیده بودم اونقدر بد بود غذا به همون شکل کل غذا رو ریختیم دور هر چی میشد اسمشو گذاشت بجز اکبرجوجه خوب نمیتونید درست کنید چرا توی منو میارید خیلی خیلی بی کیفیت'</li><li>'متاسفم واقعا به تمام معنا افتضاح تكه هاي پرتي مرغ پر از چربي وبي كيفيت والبته ران با سينه قاطي'</li></ul> |
76
+ | 9 | <ul><li>'بسیار تازه بود، بسته بندی خوب و مرتبی داشت، سس خوشمزه ای داشت اما مقدار مرغ اش کم بود ولی در کل من طعمش رو دوست داشتم'</li><li>'انصافا هم\u200cکوبیده ی خوشمزه ای بود هم جوجه کبابش ترد بود و خوشمزه و اصلا خشک\u200cنبود. صرفا به نظرم برنجش کم بود.و گوجه کبابیاشم\u200cدو تا خیلی کوچیک بود. در کل رضایتبخش بود.'</li><li>'سس نداشت ساندویچ'</li></ul> |
77
+ | 1 | <ul><li>'واقعا برای سه عدد پاکت(کاغذی) 3 هزار تومن؟؟ بسته بندی اخه 3 هزار تومن بعد تو کاغذ پیچی؟؟؟؟ عجبب'</li><li>'بهاران ساندویچاش کیفیتش و حجمش\u200cخیلی افت کرده'</li><li>'زمان ارسال بسیار طولانی بود. ۲۰ دقیقه دیرتر از زمان اعلام شده تحویل گردید.'</li></ul> |
78
+ | 10 | <ul><li>'ممنون ازتون لطفا کیفیت رو حفظ کنید تا وقتی خوب باشه من خودم مشتری ثابت هستم خسته نباشید'</li><li>'واقعا دستتون درد نكنه من نوشته بودم عجله دارم لطفا سريع و داغ برسه نيم ساعته يه غذاى عالي و داغ برامون فرستادن'</li><li>'مثل هميشه عالي بود ، پيك به موقع هم رسيد ماهي تنوري رو اولين بار بود كه سفارش دادم و خيلي خوشم اومد'</li></ul> |
79
+
80
+ ## Evaluation
81
+
82
+ ### Metrics
83
+ | Label | Accuracy |
84
+ |:--------|:---------|
85
+ | **all** | 0.1364 |
86
+
87
+ ## Uses
88
+
89
+ ### Direct Use for Inference
90
+
91
+ First install the SetFit library:
92
+
93
+ ```bash
94
+ pip install setfit
95
+ ```
96
+
97
+ Then you can load this model and run inference.
98
+
99
+ ```python
100
+ from setfit import SetFitModel
101
+
102
+ # Download from the 🤗 Hub
103
+ model = SetFitModel.from_pretrained("keivan/roberta-zwnj-wnli-mean-tokens")
104
+ # Run inference
105
+ preds = model("خوبه ولی کیفیت ظروف مناسب نیست")
106
+ ```
107
+
108
+ <!--
109
+ ### Downstream Use
110
+
111
+ *List how someone could finetune this model on their own dataset.*
112
+ -->
113
+
114
+ <!--
115
+ ### Out-of-Scope Use
116
+
117
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
118
+ -->
119
+
120
+ <!--
121
+ ## Bias, Risks and Limitations
122
+
123
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
124
+ -->
125
+
126
+ <!--
127
+ ### Recommendations
128
+
129
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
130
+ -->
131
+
132
+ ## Training Details
133
+
134
+ ### Training Set Metrics
135
+ | Training set | Min | Median | Max |
136
+ |:-------------|:----|:--------|:----|
137
+ | Word count | 3 | 21.3377 | 72 |
138
+
139
+ | Label | Training Sample Count |
140
+ |:------|:----------------------|
141
+ | 0 | 7 |
142
+ | 1 | 7 |
143
+ | 2 | 7 |
144
+ | 3 | 7 |
145
+ | 4 | 7 |
146
+ | 5 | 7 |
147
+ | 6 | 7 |
148
+ | 7 | 7 |
149
+ | 8 | 7 |
150
+ | 9 | 7 |
151
+ | 10 | 7 |
152
+
153
+ ### Training Hyperparameters
154
+ - batch_size: (8, 8)
155
+ - num_epochs: (2, 2)
156
+ - max_steps: -1
157
+ - sampling_strategy: oversampling
158
+ - body_learning_rate: (2e-05, 1e-05)
159
+ - head_learning_rate: 0.01
160
+ - loss: CosineSimilarityLoss
161
+ - distance_metric: cosine_distance
162
+ - margin: 0.25
163
+ - end_to_end: False
164
+ - use_amp: False
165
+ - warmup_proportion: 0.1
166
+ - seed: 42
167
+ - eval_max_steps: -1
168
+ - load_best_model_at_end: True
169
+
170
+ ### Training Results
171
+ | Epoch | Step | Training Loss | Validation Loss |
172
+ |:-------:|:-------:|:-------------:|:---------------:|
173
+ | 0.0015 | 1 | 0.2836 | - |
174
+ | 0.0742 | 50 | 0.2695 | - |
175
+ | 0.1484 | 100 | 0.3017 | - |
176
+ | 0.2226 | 150 | 0.0892 | - |
177
+ | 0.2967 | 200 | 0.0609 | - |
178
+ | 0.3709 | 250 | 0.1121 | - |
179
+ | 0.4451 | 300 | 0.0263 | - |
180
+ | 0.5193 | 350 | 0.0089 | - |
181
+ | 0.5935 | 400 | 0.0072 | - |
182
+ | 0.6677 | 450 | 0.0086 | - |
183
+ | 0.7418 | 500 | 0.0045 | - |
184
+ | 0.8160 | 550 | 0.0039 | - |
185
+ | 0.8902 | 600 | 0.003 | - |
186
+ | 0.9644 | 650 | 0.0006 | - |
187
+ | **1.0** | **674** | **-** | **0.0285** |
188
+ | 1.0386 | 700 | 0.0011 | - |
189
+ | 1.1128 | 750 | 0.0015 | - |
190
+ | 1.1869 | 800 | 0.0011 | - |
191
+ | 1.2611 | 850 | 0.0011 | - |
192
+ | 1.3353 | 900 | 0.0007 | - |
193
+ | 1.4095 | 950 | 0.0006 | - |
194
+ | 1.4837 | 1000 | 0.0012 | - |
195
+ | 1.5579 | 1050 | 0.0005 | - |
196
+ | 1.6320 | 1100 | 0.0024 | - |
197
+ | 1.7062 | 1150 | 0.0019 | - |
198
+ | 1.7804 | 1200 | 0.0003 | - |
199
+ | 1.8546 | 1250 | 0.0006 | - |
200
+ | 1.9288 | 1300 | 0.0006 | - |
201
+ | 2.0 | 1348 | - | 0.0302 |
202
+
203
+ * The bold row denotes the saved checkpoint.
204
+ ### Framework Versions
205
+ - Python: 3.10.12
206
+ - SetFit: 1.0.1
207
+ - Sentence Transformers: 2.2.2
208
+ - Transformers: 4.35.2
209
+ - PyTorch: 2.1.0+cu121
210
+ - Datasets: 2.15.0
211
+ - Tokenizers: 0.15.0
212
+
213
+ ## Citation
214
+
215
+ ### BibTeX
216
+ ```bibtex
217
+ @article{https://doi.org/10.48550/arxiv.2209.11055,
218
+ doi = {10.48550/ARXIV.2209.11055},
219
+ url = {https://arxiv.org/abs/2209.11055},
220
+ author = {Tunstall, Lewis and Reimers, Nils and Jo, Unso Eun Seo and Bates, Luke and Korat, Daniel and Wasserblat, Moshe and Pereg, Oren},
221
+ keywords = {Computation and Language (cs.CL), FOS: Computer and information sciences, FOS: Computer and information sciences},
222
+ title = {Efficient Few-Shot Learning Without Prompts},
223
+ publisher = {arXiv},
224
+ year = {2022},
225
+ copyright = {Creative Commons Attribution 4.0 International}
226
+ }
227
+ ```
228
+
229
+ <!--
230
+ ## Glossary
231
+
232
+ *Clearly define terms in order to be accessible across audiences.*
233
+ -->
234
+
235
+ <!--
236
+ ## Model Card Authors
237
+
238
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
239
+ -->
240
+
241
+ <!--
242
+ ## Model Card Contact
243
+
244
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
245
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "checkpoints/step_674/",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "gradient_checkpointing": false,
11
+ "hidden_act": "gelu",
12
+ "hidden_dropout_prob": 0.1,
13
+ "hidden_size": 768,
14
+ "initializer_range": 0.02,
15
+ "intermediate_size": 3072,
16
+ "layer_norm_eps": 1e-12,
17
+ "max_position_embeddings": 514,
18
+ "model_type": "roberta",
19
+ "num_attention_heads": 12,
20
+ "num_hidden_layers": 12,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.35.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 42000
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,7 @@
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "2.0.0",
4
+ "transformers": "4.7.0",
5
+ "pytorch": "1.9.0+cu102"
6
+ }
7
+ }
config_setfit.json ADDED
@@ -0,0 +1,16 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "labels": [
3
+ 0,
4
+ 1,
5
+ 2,
6
+ 3,
7
+ 4,
8
+ 5,
9
+ 6,
10
+ 7,
11
+ 8,
12
+ 9,
13
+ 10
14
+ ],
15
+ "normalize_embeddings": false
16
+ }
merges.txt ADDED
The diff for this file is too large to render. See raw diff
 
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:8896fac13482faeab364d1211e5f23a46655279b96e2c652a14261680aa7c935
3
+ size 473214824
model_head.pkl ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:3cacf870c6577b35212a3a5f16c2b4a51987cba571807f6e373235e0eb1f9f04
3
+ size 68591
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 128,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,112 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_prefix_space": false,
3
+ "added_tokens_decoder": {
4
+ "0": {
5
+ "content": "<s>",
6
+ "lstrip": false,
7
+ "normalized": false,
8
+ "rstrip": false,
9
+ "single_word": false,
10
+ "special": true
11
+ },
12
+ "1": {
13
+ "content": "<pad>",
14
+ "lstrip": false,
15
+ "normalized": false,
16
+ "rstrip": false,
17
+ "single_word": false,
18
+ "special": true
19
+ },
20
+ "2": {
21
+ "content": "</s>",
22
+ "lstrip": false,
23
+ "normalized": false,
24
+ "rstrip": false,
25
+ "single_word": false,
26
+ "special": true
27
+ },
28
+ "3": {
29
+ "content": "<unk>",
30
+ "lstrip": false,
31
+ "normalized": false,
32
+ "rstrip": false,
33
+ "single_word": false,
34
+ "special": true
35
+ },
36
+ "4": {
37
+ "content": "<mask>",
38
+ "lstrip": true,
39
+ "normalized": false,
40
+ "rstrip": false,
41
+ "single_word": false,
42
+ "special": true
43
+ },
44
+ "5": {
45
+ "content": "<|endoftext|>",
46
+ "lstrip": false,
47
+ "normalized": true,
48
+ "rstrip": false,
49
+ "single_word": false,
50
+ "special": true
51
+ },
52
+ "6": {
53
+ "content": "<|startoftext|>",
54
+ "lstrip": false,
55
+ "normalized": true,
56
+ "rstrip": false,
57
+ "single_word": false,
58
+ "special": true
59
+ },
60
+ "7": {
61
+ "content": "<nl>",
62
+ "lstrip": false,
63
+ "normalized": true,
64
+ "rstrip": false,
65
+ "single_word": false,
66
+ "special": true
67
+ },
68
+ "8": {
69
+ "content": "<hs>",
70
+ "lstrip": false,
71
+ "normalized": true,
72
+ "rstrip": false,
73
+ "single_word": false,
74
+ "special": true
75
+ },
76
+ "9": {
77
+ "content": "<sep>",
78
+ "lstrip": false,
79
+ "normalized": true,
80
+ "rstrip": false,
81
+ "single_word": false,
82
+ "special": true
83
+ },
84
+ "10": {
85
+ "content": "<cls>",
86
+ "lstrip": false,
87
+ "normalized": true,
88
+ "rstrip": false,
89
+ "single_word": false,
90
+ "special": true
91
+ }
92
+ },
93
+ "bos_token": "<s>",
94
+ "clean_up_tokenization_spaces": true,
95
+ "cls_token": "<s>",
96
+ "eos_token": "</s>",
97
+ "errors": "replace",
98
+ "mask_token": "<mask>",
99
+ "max_length": 512,
100
+ "model_max_length": 512,
101
+ "pad_to_multiple_of": null,
102
+ "pad_token": "<pad>",
103
+ "pad_token_type_id": 0,
104
+ "padding_side": "right",
105
+ "sep_token": "</s>",
106
+ "stride": 0,
107
+ "tokenizer_class": "RobertaTokenizer",
108
+ "trim_offsets": true,
109
+ "truncation_side": "right",
110
+ "truncation_strategy": "longest_first",
111
+ "unk_token": "<unk>"
112
+ }
vocab.json ADDED
The diff for this file is too large to render. See raw diff