เชื่อ AI จนชีวิตพัง! ใช้ AI ยังไงให้ปลอดภัย
Автор: iT24Hrs
Загружено: 2025-09-29
Просмотров: 1044
เชื่อ AI จนชีวิตพัง! ใช้ AI ยังไงให้ปลอดภัย
AI ที่เราใช้งานมันแทบจะทุกวัน ตั้งแต่แชทบอทไปจนถึง AI Agent ที่เป็นเครื่องมือช่วยทำงาน หรือเป็นที่ปรึกษาเรื่องสำคัญ แต่เคยคิดไหมว่า...เราควรเชื่อสิ่งที่ AI ตอบมากแค่ไหน? เพราะมีหลายกรณีที่คนเชื่อ AI มากจนชีวิตเกือบพังมาแล้ว!
มาดูกันว่าการเชื่อ AI มากเกินไปจะส่งผลร้ายแรงแค่ไหน และเราควรใช้อย่างไรให้ปลอดภัยและรู้เท่าทัน
00:00 เริ่มต้น
01:00 หลงเชื่อ AI จนทริปพัง
02:20 หลงเชื่อ AI จนฟ้องหย่า
03:44 หลงเชื่อ AI จนเกือบถึงแก่ชีวิต
07:07 ใช้ AI เขียนเอกสารปลอม
08:32 รู้เท่าทัน AI ใช้ให้เป็น
อย่าลืมช่วยกด LIKE กด SUBSCRIBE และ SHARE กดกระดิ่งแจ้งเตือนเพื่อเป็นกำลังใจให้ทีม iT24Hrs กันด้วยนะคะ
และขอขอบคุณผู้ที่ติดตามกันมาตลอดหลายปีที่ผ่านมาค่ะ 🙏
🫶หากท่านใดต้องการสนับสนุนช่อง iT24Hrs ท่านสามารถกดปุ่ม "Super Thanks" หรือปุ่ม "ขอบคุณ" เพื่อสนับสนุนพวกเราในการผลิตงานต่อไปได้นะคะ ขอขอบพระคุณทุกๆการสนับสนุนมากๆค่ะ 🙏
== หลงเชื่อ AI จนทริปพัง ==
Mery Caldass อินฟลูเอนเซอร์ชาวสเปนและแฟนหนุ่มของเธอ ต้องเจอกับทริปล่ม ถูกปฏิเสธไม่ให้ขึ้นเครื่องบินไป เปอร์โตริโก เนื่องจากไม่มีเอกสารสำคัญ เพราะพวกเขาหลงเชื่อคำแนะนำจาก ChatGPT นี่ก็เป็นบทเรียนสำคัญที่เตือนนักเดินทางทุกคนว่า AI ช่วยออกแบบทริปได้ แต่จะต้องตรวจสอบความถูกต้องของข้อมูลจาก AI อีกครั้งอย่างละเอียดเสมอ ก่อนออกเดินทางจริง
== หลงเชื่อ AI จนฟ้องหย่า ==
เรื่องราวแปลกประหลาดนี้เกิดขึ้นในประเทศ กรีซ เมื่อภรรยาคนหนึ่งได้ตัดสินใจยื่นฟ้องหย่าสามีที่ใช้ชีวิตคู่กันมานานถึง 12 ปี เพราะการทำนายจาก ChatGPT เธอได้ใช้เทคนิคที่เรียกว่า Tasseography (การทำนายจากใบชาหรือกากกาแฟ) ด้วยการถ่ายภาพ กากกาแฟ ที่เหลือในถ้วยส่งให้ ChatGPT วิเคราะห์ ซึ่งผลลัพธ์ที่ได้คือ AI อ้างว่าสามีของเธอกำลังคิดถึงผู้หญิง ทำให้ภรรยาเชื่ออย่างสนิทใจและเดินเรื่องฟ้องหย่า
== หลงเชื่อ AI จนเกือบถึงแก่ชีวิต ==
การพึ่งพา AI ในช่วงอ่อนไหวทางอารมณ์นำไปสู่โศกนาฏกรรมหลายครั้ง เช่น หนุ่มนักบัญชีที่คุยกับ ChatGPT นานถึง 16 ชม./วัน ได้รับคำแนะนำอันตรายถึงชีวิต รวมถึงการ กระโดดจากตึก 19 ชั้น ซึ่งเกิดจากปัญหา Hallucination (AI สร้างข้อมูลเอง) แล้ว Hallucination คืออะไร
นอกจากนี้ เด็กวัย 14 ปี Sewell Setzer III ได้จบชีวิตตัวเองหลังครอบครัวฟ้องร้องบริษัท Character.AI โดยอ้างว่าแชทบอทสร้างความผูกพันและใช้คำพูดที่ล่อแหลม งานวิจัยเตือนว่า AI ไม่เข้าใจบริบททางภาษาได้ดีพอ ในสถานการณ์ที่มีความเสี่ยง ดังนั้นจึงมีคำแนะนำที่ชัดเจนว่า ไม่ควรใช้ AI ในการวินิจฉัยโรคหรือบำบัดจิตใจ เนื่องจากความผิดพลาดอาจเป็นอันตรายถึงชีวิตได้.
== ใช้ AI เขียนเอกสารปลอม ==
ในช่วงกลางปี 2025 ที่รัฐยูทาห์ สหรัฐอเมริกา เกิดเรื่องอื้อฉาวในวงการกฎหมาย เมื่อมีทนายความคนหนึ่งยื่นคำร้องขออุทธรณ์ต่อศาล โดยใช้ ChatGPT ช่วยสร้างเอกสารทางกฎหมายและอ้างอิงถึง คดีความเก่าที่ไม่เคยมีอยู่จริง ทำให้เขาต้องถูกลงโทษอย่างหนัก เหตุการณ์นี้เน้นย้ำถึงอันตรายของการพึ่งพา AI ในเรื่องสำคัญโดยขาดการตรวจสอบยืนยันความถูกต้องของข้อมูลอย่างถี่ถ้วน
== รู้เท่าทัน AI ใช้ให้เป็น ==
เพื่อไม่ให้ปัญหาเหล่านี้เกิดกับตัวเรา เราจึงต้องใช้ AI อย่างรู้เท่าทันซึ่งจะทำอย่างไรนั้นสามารถติดตามได้จากในคลิปนี้เลย
ออกอากาศเมื่อวันเสาร์ที่ 27 กันยายน 2567
สามารถติดตาม รายการดิจิทัล ไทยแลนด์ ทางช่อง 3 กด 33
ทุกวันเสาร์เวลา 4.40-5.05 น. ทางช่อง 3 กด 33
ติดตามรับข้อมูลข่าวสารเพิ่มเติมได้ที่
facebook.com/it24hrs
twitter.com/panraphee
twitter.com/it24hrs
IG: panraphee
TikTok : iT24Hrs
ติดต่อโฆษณา ประชาสัมพันธ์ รีวิว พิธีกร วิทยากร
โทร 080 2345 023
[email protected]
#AI #ChatGPT #CharacterAI #เทคโนโลยี #ดิจิทัลไทยแลนด์ #DigitalThailand #ข่าวไอที #ใช้AIให้ปลอดภัย #Hallucination #Tasseography
Доступные форматы для скачивания:
Скачать видео mp4
-
Информация по загрузке: