Anthropic บริษัทด้านปัญญาประดิษฐ์ (AI) ที่มีชื่อเสียงจากการพัฒนา Claude เปิดเผยการเปลี่ยนแปลงครั้งสำคัญในนโยบายคุ้มครองความเป็นส่วนตัว โดยประกาศว่าจะเริ่มนำข้อมูลผู้ใช้งาน — ทั้งประวัติการแชตใหม่และเซสชันการเขียนโค้ด — ไปใช้ฝึกฝนโมเดล AI เว้นแต่ผู้ใช้จะเลือก “ไม่เข้าร่วม” (opt-out) การเปลี่ยนแปลงนี้จะเริ่มบังคับใช้ในวันที่ 28 กันยายน 2025
จุดเปลี่ยนสำคัญ: จากเดิม “ต้องยินยอม” เป็น “ต้องเลือกไม่ยินยอม”
ก่อนหน้านี้ แนวนโยบายของ Anthropic ระบุว่า ระบบจะไม่ใช้ข้อมูลจากการแชตของผู้บริโภค (consumer) เพื่อนำไปฝึกโมเดล ยกเว้นใน 2 กรณีคือ หากผู้ใช้ส่งฟีดแบ็ก หรือหากเนื้อหาได้รับการตรวจสอบด้านความปลอดภัย แต่หลังจากการประกาศครั้งนี้ กลับกลายเป็นว่า “ข้อมูลทั้งหมดจะถูกใช้สำหรับการฝึกฝน โดยอัตโนมัติ หากผู้ใช้ไม่เลือก opt-out”
การยืดระยะเวลาการเก็บข้อมูล — สูงสุด 5 ปี
อีกหนึ่งการเปลี่ยนแปลงที่สำคัญคือ Anthropic จะยืดระยะเวลาการเก็บข้อมูลของผู้ใช้จากเดิม 30 วัน เป็นสูงสุด 5 ปี สำหรับผู้ที่ “อนุญาตให้ใช้ข้อมูลเพื่อฝึกโมเดล” ข้อมูลที่ถูกลบโดยผู้ใช้จะไม่ถูกนำไปใช้ และข้อมูลเก่า (old, dormant sessions) จะไม่ถูกใช้ถ้าไม่ถูกเปิดใหม่ (resumed)
ในทางกลับกัน หากผู้ใช้ไม่อนุญาตให้ใช้ข้อมูลเพื่อฝึกโมเดล ข้อมูลจะถูกเก็บเพียง 30 วัน เท่าเดิม
วิธีการแจ้งและการควบคุมสิทธิ์ของผู้ใช้
• สำหรับ ผู้ใช้ใหม่ (new users): จะต้องเลือกตั้งแต่ขั้นตอนการลงทะเบียน
• สำหรับ ผู้ใช้เดิม (existing users): จะเจอป๊อปอัป (pop-up) แจ้งเตือนให้ตัดสินใจ โดยมีปุ่ม “Accept” ขนาดใหญ่ พร้อม toggle เพื่อ opt-out ที่ตั้งค่าไว้เป็น “On” หรือยินยอมโดยอัตโนมัติ ถ้าไม่ทำอะไร ระบบจะถือว่า “ยอม” จากดีฟอลต์
• ผู้ใช้มีเวลา ถึงวันที่ 28 กันยายน 2025 ในการตัดสินใจ ถ้าเลยกำหนดจะไม่สามารถใช้งาน Claude ต่อได้จนกว่าจะเลือกตอบ
ผู้ใช้สามารถเปลี่ยนใจหรือปรับการตั้งค่านี้เมื่อไรก็ได้ที่หน้า Privacy Settings — Help improve Claude แต่ผลกระทบจากข้อมูลที่ถูกส่งไปก่อนหน้านั้นจะไม่สามารถเพิกถอนได้
Anthropic ชี้แจงด้านความปลอดภัย— แต่เสียงวิจารณ์สะท้อนความกังวล
Anthropic ระบุว่าจะใช้ “เครื่องมืออัตโนมัติและกระบวนการต่างๆ” ในการกรองหรือทำให้ข้อมูลอ่อนไหวเป็นแบบไม่ระบุชื่อ (obfuscate) และย้ำว่าจะไม่ “ขายข้อมูลผู้ใช้ให้บุคคลที่สาม”
อย่างไรก็ตาม ผู้เชี่ยวชาญด้านความเป็นส่วนตัวเตือนว่า วิธี opt-out แบบนี้อาจทำให้ผู้ใช้ “คลิกยอมรับโดยไม่ตั้งใจ” ได้ง่าย รวมถึงข้อมูลที่ไม่ระบุชื่ออาจยังมีจุดอ่อน เช่น ข้อมูลการเขียนโค้ดอาจเปิดเผยตรรกะหรือทรัพย์สินทางปัญญาได้
บริการธุรกิจและ API ยังคงปลอดภัย
Anthropic ยืนยันว่าจำกัดการเปลี่ยนแปลงนี้เฉพาะบริการ “สำหรับผู้บริโภค” อย่าง Claude Free, Pro, Max รวมถึง Claude Code เท่านั้น โดยบริการประเภท ธุรกิจ การศึกษา รัฐบาล หรือผ่าน API (เช่น Claude for Work, Claude Gov, Claude for Education, หรือผ่าน Amazon Bedrock, Google Vertex AI) จะยังคงยกเว้นจากนโยบายใหม่นี้
________________________________________
สรุปภาพรวม
Anthropic กำลังเปลี่ยนแนวทางสำคัญจาก “ผู้ใช้ต้องยินยอมก่อนถึงจะใช้ข้อมูล” เป็น “ใช้ข้อมูลโดยอัตโนมัติ เว้นแต่ผู้ใช้จะยกเลิก (opt-out)” พร้อมขยายระยะเวลาเก็บข้อมูลสูงสุดถึง 5 ปีสำหรับผู้ที่ยินยอม ซึ่งส่งผลให้ผู้ใช้ต้องตัดสินใจอย่างระมัดระวังถึงข้อดีและความเสี่ยงก่อนสิ้นสุดวันที่ 28 กันยายน 2025
ผู้เขียน: ก้องปพัฒน์ กำจรจรุงวิทย์