huyhuy123 commited on
Commit
4650fdd
1 Parent(s): 38c0f32

Upload folder using huggingface_hub (#1)

Browse files

- Upload folder using huggingface_hub (879cf857f47668ea7910b523657f2f37deb48cfc)

Files changed (3) hide show
  1. 1_Pooling/config.json +10 -0
  2. README.md +432 -0
  3. tokenizer.json +3 -0
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,432 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language: []
3
+ library_name: sentence-transformers
4
+ tags:
5
+ - sentence-transformers
6
+ - sentence-similarity
7
+ - feature-extraction
8
+ - dataset_size:10K<n<100K
9
+ - loss:CosineSimilarityLoss
10
+ base_model: sentence-transformers/paraphrase-multilingual-mpnet-base-v2
11
+ metrics:
12
+ - pearson_cosine
13
+ - spearman_cosine
14
+ - pearson_manhattan
15
+ - spearman_manhattan
16
+ - pearson_euclidean
17
+ - spearman_euclidean
18
+ - pearson_dot
19
+ - spearman_dot
20
+ - pearson_max
21
+ - spearman_max
22
+ widget:
23
+ - source_sentence: Có những loại chứng thực nào?
24
+ sentences:
25
+ - Chứng cứ trong vụ án hình sự được hiểu như thế nào?
26
+ - Thời điểm hợp đồng cầm cố tài sản có hiệu lực là khi nào?
27
+ - Viên chức chuyên ngành công tác xã hội có nhiệm vụ gì?
28
+ - source_sentence: Premic vitamin là hỗn hợp gì?
29
+ sentences:
30
+ - 04 mức bồi dưỡng bằng hiện vật cho người lao động năm 2024?
31
+ - Thủ tục đăng ký khai tử cho người Việt Nam ở trong nước
32
+ - Trường hợp nào được mua pháo hoa của Bộ Quốc phòng về sử dụng?
33
+ - source_sentence: Khi nào thẻ CCCD sẽ được cấp lại?
34
+ sentences:
35
+ - Sai sót về thông tin trên thẻ CCCD được cấp đổi hay cấp lại?
36
+ - 1. Dùng bảo hiểm xe máy online có vi phạm pháp luật không?
37
+ - Bản chất của chủ nghĩa xã hội ở Việt Nam là gì?
38
+ - source_sentence: Mẫu đơn cam kết cho ở nhờ 2024?
39
+ sentences:
40
+ - Cách đăng ký tạm trú online tại nhà dễ thực hiện nhất 2023?
41
+ - Hồ sơ thiết kế xe ô tô cải tạo do cơ quan nào thẩm định?
42
+ - Thủ tục thu hồi giấy phép kinh doanh vận tải bằng xe ô tô như thế nào?
43
+ - source_sentence: Nhập hộ khẩu cho con ở đâu?
44
+ sentences:
45
+ - Xác định quê quán đối với trẻ em bị bỏ rơi như thế nào?
46
+ - Kéo đường dây điện qua đất của người khác có được không?
47
+ - Đặc quyền của xe biển số đỏ là gì?
48
+ pipeline_tag: sentence-similarity
49
+ model-index:
50
+ - name: SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
51
+ results:
52
+ - task:
53
+ type: semantic-similarity
54
+ name: Semantic Similarity
55
+ dataset:
56
+ name: Unknown
57
+ type: unknown
58
+ metrics:
59
+ - type: pearson_cosine
60
+ value: 0.9803795255081482
61
+ name: Pearson Cosine
62
+ - type: spearman_cosine
63
+ value: 0.8645230973533456
64
+ name: Spearman Cosine
65
+ - type: pearson_manhattan
66
+ value: 0.9726972909054996
67
+ name: Pearson Manhattan
68
+ - type: spearman_manhattan
69
+ value: 0.8644864331598612
70
+ name: Spearman Manhattan
71
+ - type: pearson_euclidean
72
+ value: 0.9728920367615165
73
+ name: Pearson Euclidean
74
+ - type: spearman_euclidean
75
+ value: 0.8645176892999815
76
+ name: Spearman Euclidean
77
+ - type: pearson_dot
78
+ value: 0.9583904271234501
79
+ name: Pearson Dot
80
+ - type: spearman_dot
81
+ value: 0.861105909034599
82
+ name: Spearman Dot
83
+ - type: pearson_max
84
+ value: 0.9803795255081482
85
+ name: Pearson Max
86
+ - type: spearman_max
87
+ value: 0.8645230973533456
88
+ name: Spearman Max
89
+ ---
90
+
91
+ # SentenceTransformer based on sentence-transformers/paraphrase-multilingual-mpnet-base-v2
92
+
93
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
94
+
95
+ ## Model Details
96
+
97
+ ### Model Description
98
+ - **Model Type:** Sentence Transformer
99
+ - **Base model:** [sentence-transformers/paraphrase-multilingual-mpnet-base-v2](https://huggingface.co/sentence-transformers/paraphrase-multilingual-mpnet-base-v2) <!-- at revision 79f2382ceacceacdf38563d7c5d16b9ff8d725d6 -->
100
+ - **Maximum Sequence Length:** 300 tokens
101
+ - **Output Dimensionality:** 768 tokens
102
+ - **Similarity Function:** Cosine Similarity
103
+ <!-- - **Training Dataset:** Unknown -->
104
+ <!-- - **Language:** Unknown -->
105
+ <!-- - **License:** Unknown -->
106
+
107
+ ### Model Sources
108
+
109
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
110
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
111
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
112
+
113
+ ### Full Model Architecture
114
+
115
+ ```
116
+ SentenceTransformer(
117
+ (0): Transformer({'max_seq_length': 300, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
118
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
119
+ )
120
+ ```
121
+
122
+ ## Usage
123
+
124
+ ### Direct Usage (Sentence Transformers)
125
+
126
+ First install the Sentence Transformers library:
127
+
128
+ ```bash
129
+ pip install -U sentence-transformers
130
+ ```
131
+
132
+ Then you can load this model and run inference.
133
+ ```python
134
+ from sentence_transformers import SentenceTransformer
135
+
136
+ # Download from the 🤗 Hub
137
+ model = SentenceTransformer("minhquan6203/paraphrase-vietnamese-law")
138
+ # Run inference
139
+ sentences = [
140
+ 'Nhập hộ khẩu cho con ở đâu?',
141
+ 'Xác định quê quán đối với trẻ em bị bỏ rơi như thế nào?',
142
+ 'Kéo đường dây điện qua đất của người khác có được không?',
143
+ ]
144
+ embeddings = model.encode(sentences)
145
+ print(embeddings.shape)
146
+ # [3, 768]
147
+
148
+ # Get the similarity scores for the embeddings
149
+ similarities = model.similarity(embeddings, embeddings)
150
+ print(similarities.shape)
151
+ # [3, 3]
152
+ ```
153
+
154
+ <!--
155
+ ### Direct Usage (Transformers)
156
+
157
+ <details><summary>Click to see the direct usage in Transformers</summary>
158
+
159
+ </details>
160
+ -->
161
+
162
+ <!--
163
+ ### Downstream Usage (Sentence Transformers)
164
+
165
+ You can finetune this model on your own dataset.
166
+
167
+ <details><summary>Click to expand</summary>
168
+
169
+ </details>
170
+ -->
171
+
172
+ <!--
173
+ ### Out-of-Scope Use
174
+
175
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
176
+ -->
177
+
178
+ ## Evaluation
179
+
180
+ ### Metrics
181
+
182
+ #### Semantic Similarity
183
+
184
+ * Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
185
+
186
+ | Metric | Value |
187
+ |:-------------------|:-----------|
188
+ | pearson_cosine | 0.9804 |
189
+ | spearman_cosine | 0.8645 |
190
+ | pearson_manhattan | 0.9727 |
191
+ | spearman_manhattan | 0.8645 |
192
+ | pearson_euclidean | 0.9729 |
193
+ | spearman_euclidean | 0.8645 |
194
+ | pearson_dot | 0.9584 |
195
+ | spearman_dot | 0.8611 |
196
+ | pearson_max | 0.9804 |
197
+ | **spearman_max** | **0.8645** |
198
+
199
+ <!--
200
+ ## Bias, Risks and Limitations
201
+
202
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
203
+ -->
204
+
205
+ <!--
206
+ ### Recommendations
207
+
208
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
209
+ -->
210
+
211
+ ## Training Details
212
+
213
+ ### Training Dataset
214
+
215
+ #### Unnamed Dataset
216
+
217
+
218
+ * Size: 78,240 training samples
219
+ * Columns: <code>sentence_0</code>, <code>sentence_1</code>, and <code>label</code>
220
+ * Approximate statistics based on the first 1000 samples:
221
+ | | sentence_0 | sentence_1 | label |
222
+ |:--------|:----------------------------------------------------------------------------------|:-------------------------------------------------------------------------------------|:--------------------------------------------------------------|
223
+ | type | string | string | float |
224
+ | details | <ul><li>min: 7 tokens</li><li>mean: 20.73 tokens</li><li>max: 54 tokens</li></ul> | <ul><li>min: 19 tokens</li><li>mean: 185.68 tokens</li><li>max: 300 tokens</li></ul> | <ul><li>min: 0.0</li><li>mean: 0.5</li><li>max: 1.0</li></ul> |
225
+ * Samples:
226
+ | sentence_0 | sentence_1 | label |
227
+ |:----------------------------------------------------------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-----------------|
228
+ | <code>Điều khiển xe ô tô tải chở hàng vượt trọng tải cho phép được ghi trong Giấy đăng kiểm từ 30% - 50% thì bị xử phạt thế nào?</code> | <code>Tại khoản 2 Điều 16 Nghị định 65/2023/NĐ-CP có quy định về chi phí phải nộp khi yêu cầu sửa đổi, bổ sung đơn đăng ký sở hữu công nghiệp như sau: Như vậy, người yêu cầu sửa đổi, bổ sung đơn đăng ký sở hữu công nghiệp phải nộp các chi phí bao gồm: - Phí thẩm định yêu cầu sửa đổi, bổ sung cho mỗi nội dung sửa đổi theo quy định và bản sao chứng từ nộp phí nếu nộp phí qua dịch vụ bưu chính hoặc nộp trực tiếp vào tài khoản của cơ quan quản lý nhà nước về quyền sở hữu công nghiệp; - Phí công bố thông tin sửa đổi, bổ sung đơn theo quy định nếu nội dung sửa đổi, bổ sung phải được công bố trong trường hợp yêu cầu sửa đổi, bổ sung thông tin liên quan đến: Đơn hợp lệ về mặt hình thức ghi trong quyết định chấp nhận đơn hợp lệ; tên, quốc tịch của tác giả sáng chế, kiểu dáng công nghiệp, thiết kế bố trí; Bản tóm tắt sáng chế kèm theo hình vẽ (nếu có); bộ ảnh chụp hoặc bản vẽ kiểu dáng công nghiệp; mẫu nhãn hiệu và danh mục hàng hóa, dịch vụ kèm theo; bản mô tả tính chất đặc thù của sản phẩm mang chỉ dẫn địa lý và tên sản phẩm mang chỉ dẫn địa lý - Trường hợp việc sửa đổi, bổ sung phải thực hiện để khắc phục những sai sót do lỗi của cơ quan quản lý nhà nước về quyền sở hữu công nghiệp, người nộp đơn không phải nộp phí công bố. Trân trọng!</code> | <code>0.0</code> |
229
+ | <code>Hợp đồng nghiên cứu khoa học và phát triển công nghệ chấm dứt khi nào?</code> | <code>Căn cứ Tiểu mục 3 Mục 2 Nghị quyết 27-NQ/TW năm 2018 quy định bảng lương mới của cán bộ, công chức, viên chức và lực lượng vũ trang sau cải cách tiền lương như sau: (1) Thiết kế cơ cấu tiền lương mới gồm: - Lương cơ bản (chiếm tỷ lệ trong khoảng 70% tổng quỹ lương) và các khoản phụ cấp (chiếm khoảng 30% tổng quỹ lương). - Bổ sung tiền thưởng (quỹ tiền thưởng tỷ lệ trong khoảng 10% tổng quỹ tiền lương của năm, không bao gồm phụ cấp). (2) Xây dựng, ban hành hệ thống bảng lương mới theo vị trí việc làm, chức danh và chức vụ lãnh đạo thay thế hệ thống bảng lương hiện hành; chuyển xếp lương cũ sang lương mới, bảo đảm không thấp hơn tiền lương hiện hưởng, gồm: - Xây dựng 1 bảng lương chức vụ áp dụng đối với cán bộ, công chức, viên chức giữ chức vụ lãnh đạo (bầu cử và bổ nhiệm) trong hệ thống chính trị từ Trung ương đến cấp xã theo nguyên tắc: + Mức lương chức vụ phải thể hiện thứ bậc trong hệ thống chính trị; giữ chức vụ lãnh đạo nào thì hưởng lương theo chức vụ đó, nếu một người giữ nhiều chức vụ thì hưởng một mức lương chức vụ cao nhất; giữ chức vụ lãnh đạo tương đương nhau thì hưởng mức lương chức vụ như nhau; mức lương chức vụ của người lãnh đạo cấp trên phải cao hơn mức lương chức vụ của người lãnh đạo cấp dưới; + Quy định một mức lương chức vụ cho mỗi loại chức vụ tương đương; không phân loại bộ, ngành, ban, uỷ ban và tương đương ở Trung ương khi xây dựng bảng lương chức vụ ở Trung ương; không phân biệt mức lương chức vụ khác nhau đối với cùng chức danh lãnh đạo theo phân loại đơn vị hành chính ở địa phương mà thực hiện bằng chế độ phụ cấp. + Việc phân loại chức vụ lãnh đạo tương đương trong hệ thống chính trị để thiết kế bảng lương chức vụ do Bộ Chính trị quyết định sau khi đã báo cáo Ban Chấp hành Trung ương. - Xây dựng 1 bảng lương chuyên môn, nghiệp vụ theo ngạch công chức và chức danh nghề nghiệp viên chức áp dụng chung đối với công chức, viên chức không giữ chức danh lãnh đạo; mỗi ngạch công chức, chức danh nghề nghiệp viên chức có nhiều bậc lương theo nguyên tắc: + Cùng mức độ phức tạp công việc thì mức lương như nhau; điều kiện lao động cao hơn bình thường và ưu đãi nghề thì thực hiện bằng chế độ phụ cấp theo nghề; sắp xếp lại nhóm ngạch và số bậc trong các ngạch công chức, chức danh nghề nghiệp viên chức, khuyến khích công chức, viên chức nâng cao trình độ chuyên môn, nghiệp vụ. + Việc bổ nhiệm vào ngạch công chức hoặc chức danh nghề nghiệp viên chức phải gắn với vị trí việc làm và cơ cấu ngạch công chức, chức danh nghề nghiệp viên chức do cơ quan, tổ chức, đơn vị quản lý công chức, viên chức thực hiện. - Xây dựng 3 bảng lương đối với lực lượng vũ trang, gồm: + 1 bảng lương sĩ quan quân đội, sĩ quan, hạ sĩ quan nghiệp vụ công an. + 1 bảng lương quân nhân chuyên nghiệp, chuyên môn kỹ thuật công an; + 1 bảng lương công nhân quốc phòng, công nhân công an.</code> | <code>0.0</code> |
230
+ | <code>Chưa đăng ký kết hôn có quyền bắt buộc người ba cấp dưỡng cho con được hay không?</code> | <code>Các nguyên tắc, trình tự xử lý kỷ luật lao động được quy định tại Điều 122 Bộ luật Lao động 2019, cụ thể: (1) Việc xử lý kỷ luật lao động được quy định như sau: - Người sử dụng lao động phải chứng minh được lỗi của người lao động; - Phải có sự tham gia của tổ chức đại diện người lao động tại cơ sở mà người lao động đang bị xử lý kỷ luật là thành viên; - Người lao động phải có mặt và có quyền tự bào chữa, nhờ luật sư hoặc tổ chức đại diện người lao động bào chữa; trường hợp là người chưa đủ 15 tuổi thì phải có sự tham gia của người đại diện theo pháp luật; - Việc xử lý kỷ luật lao động phải được ghi thành biên bản. (2) Không được áp dụng nhiều hình thức xử lý kỷ luật lao động đối với một hành vi vi phạm kỷ luật lao động. (3) Khi một người lao động đồng thời có nhiều hành vi vi phạm kỷ luật lao động thì chỉ áp dụng hình thức kỷ luật cao nhất tương ứng với hành vi vi phạm nặng nhất. (4) Không được xử lý kỷ luật lao động đối với người lao động đang trong thời gian sau đây: - Nghỉ ốm đau, điều dưỡng; nghỉ việc được sự đồng ý của người sử dụng lao động; - Đang bị tạm giữ, tạm giam; - Đang chờ kết quả của cơ quan có thẩm quyền điều tra xác minh và kết luận đối với hành vi vi phạm được quy định tại khoản 1 và khoản 2 Điều 125 Bộ luật Lao động 2019 - Người lao động nữ mang thai; người lao động nghỉ thai sản, nuôi con dưới 12 tháng tuổi. (5) Không xử lý kỷ luật lao động đối với người lao động vi phạm kỷ luật lao động trong khi mắc bệnh tâm thần hoặc một bệnh khác làm mất khả năng nhận thức hoặc khả năng điều khiển hành vi của mình. Trân trọng!</code> | <code>0.0</code> |
231
+ * Loss: [<code>CosineSimilarityLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#cosinesimilarityloss) with these parameters:
232
+ ```json
233
+ {
234
+ "loss_fct": "torch.nn.modules.loss.MSELoss"
235
+ }
236
+ ```
237
+
238
+ ### Training Hyperparameters
239
+ #### Non-Default Hyperparameters
240
+
241
+ - `per_device_train_batch_size`: 32
242
+ - `per_device_eval_batch_size`: 32
243
+ - `num_train_epochs`: 5
244
+ - `multi_dataset_batch_sampler`: round_robin
245
+
246
+ #### All Hyperparameters
247
+ <details><summary>Click to expand</summary>
248
+
249
+ - `overwrite_output_dir`: False
250
+ - `do_predict`: False
251
+ - `prediction_loss_only`: True
252
+ - `per_device_train_batch_size`: 32
253
+ - `per_device_eval_batch_size`: 32
254
+ - `per_gpu_train_batch_size`: None
255
+ - `per_gpu_eval_batch_size`: None
256
+ - `gradient_accumulation_steps`: 1
257
+ - `eval_accumulation_steps`: None
258
+ - `learning_rate`: 5e-05
259
+ - `weight_decay`: 0.0
260
+ - `adam_beta1`: 0.9
261
+ - `adam_beta2`: 0.999
262
+ - `adam_epsilon`: 1e-08
263
+ - `max_grad_norm`: 1
264
+ - `num_train_epochs`: 5
265
+ - `max_steps`: -1
266
+ - `lr_scheduler_type`: linear
267
+ - `lr_scheduler_kwargs`: {}
268
+ - `warmup_ratio`: 0.0
269
+ - `warmup_steps`: 0
270
+ - `log_level`: passive
271
+ - `log_level_replica`: warning
272
+ - `log_on_each_node`: True
273
+ - `logging_nan_inf_filter`: True
274
+ - `save_safetensors`: True
275
+ - `save_on_each_node`: False
276
+ - `save_only_model`: False
277
+ - `no_cuda`: False
278
+ - `use_cpu`: False
279
+ - `use_mps_device`: False
280
+ - `seed`: 42
281
+ - `data_seed`: None
282
+ - `jit_mode_eval`: False
283
+ - `use_ipex`: False
284
+ - `bf16`: False
285
+ - `fp16`: False
286
+ - `fp16_opt_level`: O1
287
+ - `half_precision_backend`: auto
288
+ - `bf16_full_eval`: False
289
+ - `fp16_full_eval`: False
290
+ - `tf32`: None
291
+ - `local_rank`: 0
292
+ - `ddp_backend`: None
293
+ - `tpu_num_cores`: None
294
+ - `tpu_metrics_debug`: False
295
+ - `debug`: []
296
+ - `dataloader_drop_last`: False
297
+ - `dataloader_num_workers`: 0
298
+ - `dataloader_prefetch_factor`: None
299
+ - `past_index`: -1
300
+ - `disable_tqdm`: False
301
+ - `remove_unused_columns`: True
302
+ - `label_names`: None
303
+ - `load_best_model_at_end`: False
304
+ - `ignore_data_skip`: False
305
+ - `fsdp`: []
306
+ - `fsdp_min_num_params`: 0
307
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
308
+ - `fsdp_transformer_layer_cls_to_wrap`: None
309
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True}
310
+ - `deepspeed`: None
311
+ - `label_smoothing_factor`: 0.0
312
+ - `optim`: adamw_torch
313
+ - `optim_args`: None
314
+ - `adafactor`: False
315
+ - `group_by_length`: False
316
+ - `length_column_name`: length
317
+ - `ddp_find_unused_parameters`: None
318
+ - `ddp_bucket_cap_mb`: None
319
+ - `ddp_broadcast_buffers`: False
320
+ - `dataloader_pin_memory`: True
321
+ - `dataloader_persistent_workers`: False
322
+ - `skip_memory_metrics`: True
323
+ - `use_legacy_prediction_loop`: False
324
+ - `push_to_hub`: False
325
+ - `resume_from_checkpoint`: None
326
+ - `hub_model_id`: None
327
+ - `hub_strategy`: every_save
328
+ - `hub_private_repo`: False
329
+ - `hub_always_push`: False
330
+ - `gradient_checkpointing`: False
331
+ - `gradient_checkpointing_kwargs`: None
332
+ - `include_inputs_for_metrics`: False
333
+ - `fp16_backend`: auto
334
+ - `push_to_hub_model_id`: None
335
+ - `push_to_hub_organization`: None
336
+ - `mp_parameters`:
337
+ - `auto_find_batch_size`: False
338
+ - `full_determinism`: False
339
+ - `torchdynamo`: None
340
+ - `ray_scope`: last
341
+ - `ddp_timeout`: 1800
342
+ - `torch_compile`: False
343
+ - `torch_compile_backend`: None
344
+ - `torch_compile_mode`: None
345
+ - `dispatch_batches`: None
346
+ - `split_batches`: None
347
+ - `include_tokens_per_second`: False
348
+ - `include_num_input_tokens_seen`: False
349
+ - `neftune_noise_alpha`: None
350
+ - `optim_target_modules`: None
351
+ - `batch_sampler`: batch_sampler
352
+ - `multi_dataset_batch_sampler`: round_robin
353
+
354
+ </details>
355
+
356
+ ### Training Logs
357
+ | Epoch | Step | Training Loss | spearman_max |
358
+ |:------:|:-----:|:-------------:|:------------:|
359
+ | 0.2045 | 500 | 0.0352 | - |
360
+ | 0.4090 | 1000 | 0.0208 | 0.8642 |
361
+ | 0.6135 | 1500 | 0.0181 | - |
362
+ | 0.8180 | 2000 | 0.0171 | 0.8645 |
363
+ | 1.0 | 2445 | - | 0.8645 |
364
+ | 1.0225 | 2500 | 0.0148 | - |
365
+ | 1.2270 | 3000 | 0.012 | 0.8648 |
366
+ | 1.4315 | 3500 | 0.0105 | - |
367
+ | 1.6360 | 4000 | 0.0093 | 0.8646 |
368
+ | 1.8405 | 4500 | 0.0092 | - |
369
+ | 2.0 | 4890 | - | 0.8646 |
370
+ | 2.0450 | 5000 | 0.0082 | 0.8647 |
371
+ | 2.2495 | 5500 | 0.0069 | - |
372
+ | 2.4540 | 6000 | 0.0062 | 0.8644 |
373
+ | 2.6585 | 6500 | 0.0058 | - |
374
+ | 2.8630 | 7000 | 0.0056 | 0.8646 |
375
+ | 3.0 | 7335 | - | 0.8644 |
376
+ | 3.0675 | 7500 | 0.0048 | - |
377
+ | 3.2720 | 8000 | 0.0046 | 0.8646 |
378
+ | 3.4765 | 8500 | 0.0039 | - |
379
+ | 3.6810 | 9000 | 0.0039 | 0.8645 |
380
+ | 3.8855 | 9500 | 0.0034 | - |
381
+ | 4.0 | 9780 | - | 0.8643 |
382
+ | 4.0900 | 10000 | 0.0033 | 0.8644 |
383
+ | 4.2945 | 10500 | 0.003 | - |
384
+ | 4.4990 | 11000 | 0.0028 | 0.8644 |
385
+ | 4.7035 | 11500 | 0.0029 | - |
386
+ | 4.9080 | 12000 | 0.0025 | 0.8645 |
387
+ | 5.0 | 12225 | - | 0.8645 |
388
+
389
+
390
+ ### Framework Versions
391
+ - Python: 3.10.13
392
+ - Sentence Transformers: 3.0.0
393
+ - Transformers: 4.39.3
394
+ - PyTorch: 2.1.2
395
+ - Accelerate: 0.29.3
396
+ - Datasets: 2.18.0
397
+ - Tokenizers: 0.15.2
398
+
399
+ ## Citation
400
+
401
+ ### BibTeX
402
+
403
+ #### Sentence Transformers
404
+ ```bibtex
405
+ @inproceedings{reimers-2019-sentence-bert,
406
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
407
+ author = "Reimers, Nils and Gurevych, Iryna",
408
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
409
+ month = "11",
410
+ year = "2019",
411
+ publisher = "Association for Computational Linguistics",
412
+ url = "https://arxiv.org/abs/1908.10084",
413
+ }
414
+ ```
415
+
416
+ <!--
417
+ ## Glossary
418
+
419
+ *Clearly define terms in order to be accessible across audiences.*
420
+ -->
421
+
422
+ <!--
423
+ ## Model Card Authors
424
+
425
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
426
+ -->
427
+
428
+ <!--
429
+ ## Model Card Contact
430
+
431
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
432
+ -->
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:3b4e156de3d5b4a567a40f9f72d44772f9899967b9b59557d6348ae3d48e60bc
3
+ size 17083009