# ยินดีต้อนรับสู่ OpenThaiGPT 1.6 และ OpenThaiGPT R1

![OpenThaiGPT](https://cdn-uploads.huggingface.co/production/uploads/5fcd9c426d942eaf4d1ebd30/KQGlpn434XELKYpOHsPaj.jpeg)

🇹🇭 OpenThaiGPT 1.6 72b โมเดลภาษาขนาดใหญ่รุ่นล่าสุด ได้รับการปรับปรุงจากรุ่น 1.5 และ 🧠 OpenThaiGPT R1 32b โมเดลด้านการคิดวิเคราะห์และให้เหตุผล และพร้อมให้บริการแล้ว โมเดลนี้ได้รับการพัฒนาเพื่อการใช้งานทั่วไปและมีความสามารถด้านการคิดเชิงเหตุผลที่แข็งแกร่ง โดยเฉพาะอย่างยิ่งในภาษาไทย

### ทดลองใช้งาน

ทดลองใช้งานผ่าน ChindaX: <https://chindax.iapp.co.th>

### ดาวน์โหลดโมเดล

OpenThaiGPT 1.6 72b: <https://huggingface.co/openthaigpt/openthaigpt-1.6-72b-instruct>\
OpenTHaiGPT R1 32b: [https://huggingface.co/openthaigpt/openthaigpt-r1-32b-instruct](https://huggingface.co/openthaigpt/openthaigpt-1.6-72b-instruct)

### 🌟 OpenThaiGPT 1.6 72b

**OpenThaiGPT 1.6 72b** เป็นโมเดลภาษาไทยขนาด 72 พันล้านพารามิเตอร์ ที่ออกแบบมาสำหรับงานทั่วไปพร้อมความสามารถในการคิดวิเคราะห์ที่แข็งแกร่ง ต่อยอดจากพื้นฐานของ OpenThaiGPT 1.5 รุ่นล่าสุดนี้แสดงให้เห็นถึงประสิทธิภาพที่ดีขึ้นในการทดสอบหลากหลายรูปแบบ โดยเฉพาะอย่างยิ่งในด้านการเขียนโค้ดและงานด้านภาษาทั่วไป

#### จุดเด่น

* **โมเดลภาษาไทยขั้นสูง** ด้วยพารามิเตอร์ 72 พันล้าน
* **ความสามารถในการคิดวิเคราะห์ที่แข็งแกร่ง** ทั้งในภาษาไทยและภาษาอังกฤษ
* **ประสิทธิภาพที่ดีขึ้น** เมื่อเทียบกับรุ่น OpenThaiGPT ก่อนหน้านี้
* **ความสามารถที่สมดุล** ทั้งด้านคณิตศาสตร์ การเขียนโค้ด และงานด้านภาษาทั่วไป
* **ความเข้าใจที่ลึกซึ้ง** ในภาษาไทยและบริบททางวัฒนธรรม

#### การปรับปรุงหลักใน OpenThaiGPT 1.6 72b

เมื่อเทียบกับ OpenThaiGPT 1.5 72b รุ่น 1.6 แสดงให้เห็น:

* **ประสิทธิภาพด้านการเขียนโค้ดที่ดีขึ้นอย่างมาก** ทั้งในภาษาไทย (LiveCodeBench-TH: 32.43 เทียบกับ 12.61) และภาษาอังกฤษ (LiveCodeBench: 54.21 เทียบกับ 46.38)
* **ความเข้าใจภาษาทั่วไปที่เทียบเคียงกัน** ด้วยความแม่นยำด้านภาษาสูงถึง 98.2%
* **ความสามารถที่สมดุลดีขึ้น** ระหว่างงานด้านคณิตศาสตร์และการเขียนโค้ด

### 🧠 OpenThaiGPT R1 32b

**OpenThaiGPT R1 32b** เป็นโมเดลภาษาไทยขั้นสูงขนาด 32 พันล้านพารามิเตอร์ที่เน้นด้านการคิดวิเคราะห์และให้เหตุผล ซึ่งมีประสิทธิภาพสูงกว่าโมเดลขนาดใหญ่อย่าง DeepSeek R1 70b และ Typhoon R1 70b แม้จะมีขนาดเล็กกว่าครึ่งหนึ่ง โมเดลนี้เชี่ยวชาญในงานที่ต้องใช้การคิดวิเคราะห์ซับซ้อน รวมถึงคณิตศาสตร์ ตรรกะ และการเขียนโค้ดในภาษาไทย

#### จุดเด่น

* **โมเดลภาษาไทยที่ทันสมัยที่สุด** มีประสิทธิภาพสูงกว่าโมเดลขนาดใหญ่ในการทดสอบด้านคณิตศาสตร์และการให้เหตุผลเชิงตรรกะ
* **ความสามารถในการให้เหตุผลอย่างชัดเจน** สามารถแสดงกระบวนการคิดเป็นขั้นตอนได้
* **ขนาดเล็กกว่าอย่างมีนัยสำคัญ** (32b) แต่มีประสิทธิภาพสูงกว่าโมเดลขนาด 70b
* **เชี่ยวชาญด้านการคิดวิเคราะห์ในภาษาไทย** รวมถึงปัญหาคณิตศาสตร์และตรรกะที่ซับซ้อน
* **ประสิทธิภาพสูงในการเขียนโค้ด** ทั้งในภาษาไทยและภาษาอังกฤษ

### ผลการทดสอบเปรียบเทียบ

#### OpenThaiGPT 1.6 72b

| **Benchmarks**        | **OpenThaiGPT 1.6 72b**                    | **OpenThaiGPT 1.5 7b** | **OpenThaiGPT 1.5 14b** | **OpenThaiGPT 1.5 72b** | **Typhoon2 Qwen2.5 7b** | **Typhoon2 Llama3.1 8b** | **Typhoon2 Llama3.1 70b** | **NECTEC Pathumma LLM Text 1.0.0 7b** |
| --------------------- | ------------------------------------------ | ---------------------- | ----------------------- | ----------------------- | ----------------------- | ------------------------ | ------------------------- | ------------------------------------- |
| **AIME24-TH**         | 6.67                                       | 0                      | 0                       | 6.67                    | 3.33                    | 3.33                     | **13.33**                 | 0                                     |
| **AIME24**            | **23.33**                                  | 6.67                   | 10                      | **23.33**               | 6.67                    | 3.33                     | 10                        | 0                                     |
| **MATH500-TH**        | 43.2                                       | 24.2                   | 26.2                    | 62                      | 51.8                    | 31                       | **55.8**                  | 21.8                                  |
| **MATH500**           | **82**                                     | 40.4                   | 47.4                    | 83.2                    | 65.4                    | 49.6                     | 67.4                      | 42.8                                  |
| **LiveCodeBench-TH**  | **32.43**                                  | 22.52                  | 21.62                   | 12.61                   | 9.91                    | 8.11                     | 27.03                     | 0                                     |
| **LiveCodeBench**     | **54.21**                                  | 31.12                  | 37.96                   | 46.38                   | 0.98                    | 5.87                     | 37.38                     | 0                                     |
| **OpenThaiEval**      | **78.7**                                   | 64.5                   | 71.26                   | 77.16                   | 64.76                   | 56.63                    | 72.54                     | 65.27                                 |
| **Language Accuracy** | 98.2                                       | 97.6                   | 98.4                    | 99.4                    | 99.4                    | 98.6                     | **99.8**                  | 98.6                                  |
| **AVERAGE**           | <mark style="color:blue;">**52.34**</mark> | 35.88                  | 39.11                   | 51.34                   | 37.78                   | 32.06                    | 47.91                     | 28.56                                 |

#### OpenThaiGPT R1 32b

| **SkyThought**       | **OpenThaiGPT R1 32b**                     | **DeepSeek R1 70b** | **Typhoon R1 70b** |
| -------------------- | ------------------------------------------ | ------------------- | ------------------ |
| **AIME24-TH**        | **56.67**                                  | 33.33               | 53.33              |
| **AIME24**           | **63.36**                                  | 53.33               | 53.33              |
| **MATH500-TH**       | **83.8**                                   | 75.4                | 81                 |
| **MATH500**          | 89.4                                       | 88.88               | **90.2**           |
| **LiveCodeBench-TH** | **62.16**                                  | 53.15               | 47.75              |
| **LiveCodeBench**    | **69.67**                                  | 64.97               | 54.79              |
| **OpenThaiEval**     | 76.05                                      | 74.17               | **77.59**          |
| **AVERAGE**          | <mark style="color:blue;">**71.58**</mark> | 63.31               | 65.42              |

### Model Technical Report

<https://arxiv.org/abs/2504.01789>

If OpenThaiGPT has been beneficial for your work, kindly consider citing it as follows:

```
@misc{yuenyong2025openthaigpt16r1thaicentric,
      title={OpenThaiGPT 1.6 and R1: Thai-Centric Open Source and Reasoning Large Language Models}, 
      author={Sumeth Yuenyong and Thodsaporn Chay-intr and Kobkrit Viriyayudhakorn},
      year={2025},
      eprint={2504.01789},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2504.01789}, 
}
```

### วิธีการใช้งาน

#### Online Web Interface

<https://chindax.iapp.co.th>

#### Transformers

```python
from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "openthaigpt/openthaigpt-1.6-72b" #openthaigpt/openthaigpt-r1-32b-instruct

model = AutoModelForCausalLM.from_pretrained(
    model_name,
    torch_dtype="auto",
    device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained(model_name)

prompt = "กรุงเทพมหานครคืออะไร"
messages = [
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=8192,
    temperature=0.6
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
```

#### vLLM

1. Install VLLM (<https://github.com/vllm-project/vllm>)
2. Run server (เลือกอันใดอันหนึ่ง)

```bash
vllm serve openthaigpt/openthaigpt-1.6-72b --tensor-parallel-size 2
vllm serve openthaigpt/openthaigpt-r1-32b-instruct --tensor-parallel-size 2
```

* Note, change `--tensor-parallel-size 2` to the amount of available GPU cards.

3. Run inference (CURL example)

```bash
curl -X POST 'http://127.0.0.1:8000/v1/chat/completions' \
-H 'Content-Type: application/json' \
-d '{
  "model": "openthaigpt/openthaigpt-1.6-72b",
  "messages": [
    {
      "role": "user",
      "content": "กรุงเทพมหานครคืออะไร"
    }
  ],
  "max_tokens": 4096,
  "temperature": 0.6,
  "top_p": 0.95,
  "top_k": 40
}'
```

หรือเปลี่ยนชื่อโมเดลเป็น `"model": "openthaigpt/openthaigpt-r1-32b-instruct"` หรือ `"model": "openthaigpt/openthaigpt-1.6-72b"`.

#### ความต้องการด้านหน่วยความจำ GPU

| **จำนวนพารามิเตอร์** | **FP 16 bits** | **8 bits (Quantized)** | **4 bits (Quantized)** |
| -------------------- | -------------- | ---------------------- | ---------------------- |
| **32b**              | 64 GB          | 32 GB                  | 16 GB                  |
| **72b**              | 144 GB         | 72 GB                  | 36 GB                  |

### ใบอนุญาต

* โมเดลนี้มีให้ใช้สำหรับ **การวิจัย** และ **การใช้งานเชิงพาณิชย์** ภายใต้เงื่อนไขสัญญาอนุญาติ Qwen2.5 โปรดดูไฟล์ LICENSE สำหรับข้อมูลเพิ่มเติม

### การสนับสนุน

* เว็บไซต์อย่างเป็นทางการ: <https://openthaigpt.aieat.or.th>
* เพจ Facebook: <https://web.facebook.com/groups/openthaigpt>
* เซิร์ฟเวอร์ Discord สำหรับการสนทนาและสนับสนุน [ที่นี่](https://discord.gg/rUTp6dfVUF)
* อีเมล: <kobkrit@iapp.co.th>

#### ทีม OpenThaiGPT

![](https://cdn-uploads.huggingface.co/production/uploads/5fcd9c426d942eaf4d1ebd30/e8gT15eRfNbyEZhu-UzMX.png)

* ดร. กอบกฤตย์ วิริยะยุทธกร (<kobkrit@iapp.co.th> / <kobkrit@aieat.or.th>)
* ดร. สุเมธ ยืนยง (<sumeth.yue@mahidol.edu>)
* ดร. ทศพร ฉายอินทร์ (<thodsaporn@iapp.co.th>)

### ผู้สนับสนุน

![](https://cdn-uploads.huggingface.co/production/uploads/5fcd9c426d942eaf4d1ebd30/zSEA_n0cIOZk5pV_t2qii.png)

* ได้รับการสนับสนุน GPU Nvidia H100 x 8 ใบ จากบริษัท สยาม เอไอ คอร์เปอเรชั่น จำกัด: <https://siam.ai/>
* ได้รับทุนวิจัยสนับสนุนจากกองทุนส่งเสริมวิทยาศาสตร์ วิจัยและนวัตกรรม โดยหน่วยบริหารและจัดการทุนด้านการเพิ่มความสามารถในการแข่งขันของประเทศ (บพข.) ร่วมกับ บริษัท ไอแอพพ์เทคโนโลยี จำกัด ซึ่งมี สมาคมผู้ประกอบการปัญญาประดิษฐ์ประเทศไทย เป็นผู้ดำเนินงานโครงการ

*Disclaimer: Provided responses are not guaranteed.*
