GPT-2 เป็นโมเดลทางภาษา เป็นปัญญาประดิษฐ์ (deep learning)
ทีมผู้สร้างคือ OpenAI มันมีความสามารถหลากหลาย เช่น
อ่านทำความเข้าใจเนื้อหา แปลภาษา ตอบคำถาม และเขียนสรุป
แต่เนื่องจากผู้สร้างกลัวคน จะนำเอา AI ไปใช้ในทางที่ผิด
เช่น สร้างข่าวปลอม โพสต์ปลอมในโลกโซเซียล เป็นต้น
เลยปล่อยตัวโมเดลที่โง่ออกมา
ใครอยากให้ฉลาด ก็เอาไปสอนเองนะครับ
สนใจงานวิจัยชินนี้ก็ตาม blog นี้
https://blog.openai.com/better-language-models/
งานตีพิมพ์
https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
ส่วนโค้ด
https://github.com/openai/gpt-2
รันไม่ยากครับ ลองดูได้เลย
แต่เนื่องจากจะยุ่งยากตอนเซทโปรเจคหน่อย เป็นภาษา python นะครับ
ผมเลยทำตัวอย่างโค้ดที่รัน GPT-2
ลองเล่นได้ผ่าน colab ไม่ต้องเซทโปรเจคอะไรให้ยุ่งยากเลย
ดูตัวอย่างคลิปได้
ให้ความรู้เพิ่มเติม สำหรับโมเดลภาษาแบบนี้ที่เป็น AI
โลกนี้ไม่ได้มีแค่โมเดลนี้อันเดียว
ก็มีหลายทีมวิจัยสร้างขึ้นมาแข่งกัน เช่นกัน
– BERT model ของ Google
– Transformer-XL model ของ Google/CMU
– new-mt-dnn ของ Microsofts
บทความ AI อื่นๆ ที่น่าสนใจ
เขียนโดยแอดมินโฮ โอน้อยออก