svasdssvasds
เนชั่นทีวี

เทคโนโลยี

‘ก้าวสู่สังคม AI’ 5 ข้อกังวล AI ที่ผู้เชี่ยวชาญทั่วโลกกำลังถกเถียง

AI หรือ artificial intelligence กลายเป็นคำที่เริ่มได้ยินบ่อยขึ้นทุกวัน และกำลังจะเข้ามาเกี่ยวพันกับชีวิตเรามากขึ้นเรื่อยๆ ผู้เชี่ยวชาญจากทั่วโลกเองก็กำลังถกเถียงกันถึงอนาคตที่มี AI เป็นเทคโนโลยีสำคัญในชีวิตประจำวัน ...เราจะเดินหน้าไปอย่างไรหลังจากนี้

เราคงปฏิเสธไม่ได้ว่า AI (artificial intelligence) เข้ามามีบทบาทกับชีวิตประจำวันของเรามากขึ้นเรื่อยๆ และอาจจะมีมากขึ้นไปอีกในอนาคต เรียกว่านับตั้งแต่เราตื่นนอนจนไปถึงเข้านอนในอีกวันหนึ่งเลยทีเดียว ทว่าในตอนนี้มีผู้เชี่ยวชาญหลายท่านออกมาให้ความเห็นสวนทางกัน ในบทความนี้เรามาชวนคุยถึง 5 ประเด็นที่ผู้คนกำลังกังวลก่อนที่โลกเราจะเอา AI มาใช้อย่างเต็มตัว

 

1. ความเป็นส่วนตัวที่อาจถูกละเมิด

ความเป็นส่วนตัว (privacy) ถือเป็นเรื่องที่ผู้ให้ความสำคัญกันมากขึ้น โดยเฉพาะในช่วงหลัง ๆ เรามีข้อมูลจำนวนมากอยู่บนโลกอินเทอร์เน็ต บ้างเป็นข้อมูลที่สามารถเปิดเผยได้ บ้างเป็นข้อมูลละเอียดอ่อน (sensitive data) มีหลากหลายเคสในช่วง 2-3 ปีที่ผ่านมาที่มีการละเมิดความเป็นส่วนตัว โดยการนำข้อมูลเหล่านี้มาใช้ในการฝึกฝน AI (AI training)
 

ตัวอย่างเช่น ตลาดการซื้อขายข้อมูลส่วนบุคคล ปกติเวลาเราจะสมัครใช้บริการอะไรสักอย่างหนึ่ง ก่อนที่เราจะทำการสมัคร เราจำเป็นต้องกดยอมรับในข้อตกลงการให้บริการ (service agreement) เสียก่อน ซึ่งหลายคนอาจไม่ได้อ่าน และเซ็นหรือกด accept อย่างเดียว แต่จริงๆ แล้วสัญญาพวกนี้หลายเจ้ามีข้อที่บอกว่าสามารถให้ทางผู้ให้บริการเผยแพร่ข้อมูลแก่ผู้ให้บริการรายอื่นได้ พูดอีกทางก็คือ เขาสามารถเอาข้อมูลไปให้บริษัทอื่นได้นั่นเอง นั่นคือเหตุว่าทำไมพวก call centre ถึงรู้เบอร์และชื่อของเราตรงๆ หรือกระทั่งจากประสบการณ์ส่วนตัวของผู้เขียน อยู่ดีๆ มีบริษัทประกันเจ้าหนึ่งในประเทศไทยโทรเข้ามา บอกชื่อ-นามสกุล ยี่ห้อรถ รุ่นรถ สี และปีรถได้ถูกต้องทั้งหมด (คิดว่า ถ้าบอกข้อมูลรถที่ขับได้ขนาดนี้ มีใครบ้างละที่รู้ว่าเราขับรถรุ่นไหนสีอะไร ก็น่าจะมีอยู่ไม่กี่บริษัทหรอกที่เราให้ข้อมูลไป) ถามความต้องการในการต่อประกันในปีต่อไป เรียกว่าน่ากลัวมากๆ เลยทีเดียว นี่ยังไม่นับถึงข้อมูลที่ยังเป็นที่ถกเถียงกันว่า สรุปมันเป็นข้อมูลส่วนตัวที่สามารถระบุตัวบุคคลได้หรือไม่ เช่น ข้อมูลทางพันธุกรรมของคน

เบื้องลึกเบื้องหลังการทำงานของการทำธุรกิจการซื้อขายข้อมูลมีอยู่ในประเทศไทยจริงๆ โดยเราจะเรียกบริษัทพวกนี้ว่า data broker ทำหน้าที่ในการรับซื้อข้อมูลจากบริษัทต่าง ๆ ที่เราไปเซ็นอนุญาตให้สามารถเปิดเผยข้อมูล ทำการจัดเรียง และตรวจสอบความถูกต้องของข้อมูลก่อนจะขายให้กับผู้ที่ต้องการข้อมูล ตลาดนี้ต้องบอกเลยว่ามีมูลค่าทางตลาดที่สูงมากๆ ยิ่งข้อมูลมีความลับมากเท่าไหร่ ยิ่งขายกันในราคาแพงๆ
 

อีกประเด็นที่พึ่งเกิดขึ้นเมื่อไม่นานมานี้กับ generative AI ที่แปลงรูปของเราให้กลายเป็นรูปการ์ตูนเจ้าหนึ่ง โดยฝั่งของนักวาดหลายๆ ท่านได้ออกมาพูดในประเด็นว่า รูปที่ทางผู้พัฒนานำไปใช้สอน AI หรือสร้างโมเดนนั้น ส่วนหนึ่งเป็นรูปที่ถูกนำไปใช้โดยไม่ได้รับอนุญาต จึงทำให้เกิดกระแสแบนการใช้งาน generative AI ประเภทนี้อย่างเป็นวงกว้าง อีกมุมหนึ่งมีการออกมาพูดว่า แต่รูปที่ถูกนำมาใช้นั้นเป็นรูปที่ถูกเผยแพร่อยู่ในโลกอินเทอร์เน็ต ไม่ได้ถูกปิดกั้นอยู่แล้ว และการที่ผู้วาดจะนำภาพขึ้นผ่านระบบต่างๆ ได้ ณ ตอนที่ผู้วาดจะทำการสร้างบัญชีมาเพื่อเก็บรูปภาพใน service agreement ก็อาจจะมีการเขียนอนุญาตไว้แล้ว การนำมาใช้ไม่น่าจะเป็นปัญหาอะไร นั่นก็เป็นอีกเหตุผลหนึ่งที่ออกมาโต้เถียงกัน

การที่จะแก้ปัญหาเรื่องนี้ได้นั้นจำเป็นต้องอาศัยหลายภาคส่วนในการจัดการ เช่น การใช้กฎหมายการคุ้มครองข้อมูลส่วนบุคคลอย่างเข้มงวด หรือกระทั่งการที่เราสามารถเลือกที่จะเปิดเผยข้อมูลใดหรือไม่เปิดเผยข้อมูลใดบ้าง ก็น่าจะเป็นเรื่องดีสำหรับผู้ใช้บริการอย่างเราๆ

‘ก้าวสู่สังคม AI’ 5 ข้อกังวล AI ที่ผู้เชี่ยวชาญทั่วโลกกำลังถกเถียง


2. AI ขาดความโปร่งใส

อ่านหัวข้อแล้วอาจสงสัยว่า ทำไมถึงกังวลกับการขาดความโปร่งใสของ AI นั่นเป็นเพราะผลหรือข้อสรุปที่ AI ได้มานั้น เราไม่สามารถทราบได้เลยว่าทำไม AI ถึงให้ข้อสรุปแบบนี้ ยกตัวอย่างเช่น เราสั่งให้ AI สร้างรูปภาพจาก generative AI บางครั้งเราอาจจะได้รูปแปลกๆ ขึ้นมา และเราต้องมานั่งเดากันว่า เอ๊ะ ทำไมมันได้รูปนี้ออกมา เช่น รูปที่ค่อนข้างโด่งดังในโลกโซเชียลมีเดียอย่างหมูปิ้งนมสด ที่กลายเป็นรูปหมูยืนปิ้งกล่องนมบนเตาย่างซะงั้น สุดท้ายคนป้อนข้อมูลอย่างเราต้องมานั่งเดาเองว่าควรจะแก้คำสั่งที่เราบอก AI ยังไง เพื่อให้ได้ผลลัพธ์ที่เราต้องการ นี่คือเหตุที่ทำให้เป็นอาชีพใหม่ที่เรียกว่า prompt engineer ขึ้นมา

ปัญหาจะเริ่มรุนแรงเมื่อ AI เข้ามามีบทบาทในการตัดสินใจมากขึ้น เช่น การทำนายการออกแบบการรักษาโรค หรือบทบาทที่อาจส่งผลถึงชีวิตผู้คนในด้านอื่น การที่เราพึ่งพาผลจาก AI โดยไม่มีการอธิบายถึงที่มาที่ไป ส่งผลไปถึงการทำงานร่วมกับคนที่ต้องเอาคำแนะนำจาก AI ไปทำงานต่อ ในแง่ของความไม่ไว้ใจ ถึงแม้ผลการทดสอบจากชุดข้อมูลจะบอกแล้วว่ามีความแม่นยำสูงมากแล้วก็ตาม แต่เมื่อต้องทำนายหรือทำงานในบางชุดข้อมูลที่เราเองไม่แม่นยำมากพอ AI เองอาจจะมีการตัดสินใจที่ผิดพลาดโดยที่เราไม่สามารถทราบถึงกระบวนการตัดสินใจได้เลย

ในปัจจุบัน สังคมเริ่มรับรู้เรื่องของปัญหาความไว้ใจมากขึ้น ทำให้มีการพัฒนา AI ที่สามารถพยายามอธิบายเหตุผลการกระทำได้มากขึ้น เช่น การนำแนวคิดของ AI explainability เข้ามาช่วยให้ AI สามารถแปลงการตัดสินใจของเครื่องให้ออกมาในรูปที่คนสามารถทำความเข้าใจ และสร้างเหตุผลการกระทำของเครื่องได้ เพื่อสร้างความเชื่อมั่นให้มากขึ้น

 

3. การเปลี่ยนแปลงของอาชีพ และการศึกษา

เรื่องที่หลายคนค่อนข้างกลัวและให้ความสำคัญคือ เรากังวลกันว่า เมื่อ AI เก่งขึ้น มันจะเก่งมากพอที่จะแย่งงานอาชีพบางอาชีพได้ จากที่เราเห็นได้ในปัจจุบันองค์กรบางแห่งเริ่มมีการแทนที่คนด้วย AI ในการทำงานกันบ้างแล้ว เนื่องจากมันทำงานได้โดยไม่ต้องพัก ทำงานได้ปริมาณเยอะโดยไม่ต้องเพิ่มเงินเดือนให้ และไม่ต้องจ่ายค่าประกันสังคมให้ AI ซึ่งส่วนใหญ่งานที่ได้รับผลกระทบจะเป็นงานสำหรับแรงงานที่มีทักษะต่ำ (low-skilled workers) เสียส่วนใหญ่ เนื่องจากแรงงานที่อาศัยทักษะเฉพาะทางและทักษะขั้นสูง AI นั้น ยังไม่สามารถทดแทนได้ทั้งหมดในปัจจุบัน แต่ยังมีความกังวลมากขึ้นเมื่อ AI เก่งขึ้น ทำงานได้มากขึ้น และแม่นยำมากขึ้นเรื่อยๆ มันจะเริ่มเข้ามาแย่งงานเหล่านี้มากขึ้นหรือไม่

กลับกันอีกฝ่ายบอกว่า AI ก็ไม่ได้ทำให้อาชีพเราลดลงเรื่อยๆ หรอก มันทำให้อาชีพเราเพิ่มขึ้นต่างหาก พอมี AI เข้ามาก็มีอาชีพและความต้องการทักษะใหม่ๆ เช่น AI engineer, machine learning engineer, หรือ prompt engineer ที่เราพูดถึงก่อนหน้านี้

อีกส่วนที่สำคัญไม่แพ้กับการทำงานคือ การสร้างแรงงานหรือในแวดวงการศึกษาก็ได้รับผลกระทบจาก AI เช่นเดียวกัน ตัวอย่างเช่น เมื่อก่อนเวลาจะเขียนรายงานหรือสืบค้น นักเรียนต้องอาศัยเวลาเพื่อไปสืบค้น ทำให้เกิดกระบวนการการเรียนรู้ และการสรุปความ เพื่อเขียนเป็นรายงานออกมา แต่เมื่อ AI เช่น ChatGPT เข้ามา นักเรียนสามารถถาม ChatGPT เพื่อให้สร้างบทความที่ต้องการได้ภายในเวลาไม่กี่วินาทีเท่านั้น (มีไปจนถึงเคสที่ใช้ ChatGPT สร้างรายงานขึ้นมาได้ทั้งเล่มก็ทำกันมาแล้ว) ทำให้กระบวนการที่เคยเกิดขึ้นนั้นเริ่มหายไปเรื่อยๆ หรือมีกระทั่ง AI สำหรับการสรุปความจากผลงานการตีพิมพ์ต่างๆ ซึ่งน่าจะถูกใจนักศึกษาเป็นอย่างดีเลยทีเดียว แต่นั่นก็ทำให้ฝั่งผู้สอนเองจำเป็นต้องปรับตัวไปตามสถานการณ์ที่เปลี่ยนไปด้วยเช่นกัน ซึ่งบางส่วนก็เห็นด้วย และบางส่วนก็ไม่เห็นด้วย

ดังนั้นเมื่อ AI มีการพัฒนามากขึ้นเรื่อยๆ ทำให้ทั้งแรงงานและการศึกษาจำเป็นต้องปรับตัว เรียนรู้ทักษะการทำงานใหม่ เพื่อตอบรับกับการเปลี่ยนแปลงที่อาจจะเกิดขึ้นในอนาคต

‘ก้าวสู่สังคม AI’ 5 ข้อกังวล AI ที่ผู้เชี่ยวชาญทั่วโลกกำลังถกเถียง

 

4. การใช้พลังงานและ AI

AI ที่เราใช้งานกันอยู่ตอนนี้ทำงานอยู่บนระบบคอมพิวเตอร์ ซึ่งจำเป็นต้องอาศัยพลังงานไฟฟ้าในการทำงาน เมื่อเรามี AI จำนวนเยอะมากขึ้น เราก็ต้องการพลังงานไฟฟ้าในการที่จะหล่อเลี้ยง AI เหล่านี้มากขึ้นเป็นเงาตามตัวเช่นกัน

ตัวอย่างเช่น ChatGPT ที่เป็น large language model (LLM) หรือภาษาไทยคือ โมเดลทางภาษาขนาดใหญ่ ซึ่งตัวโมเดลมีขนาดใหญ่ตามที่ชื่อบอกเลย มีหลายล้านๆ พารามิเตอร์ (parameter) สำหรับการฝึกสอนโมเดล ChatGPT ที่เราใช้งานกันจึงไม่สามารถสร้างจากเครื่องคอมพิวเตอร์เครื่องเดียวได้เลย จำเป็นต้องอาศัยเครื่องคอมพิวเตอร์ต่อกันหลายร้อยหลายพันเครื่องในศูนย์ข้อมูล (data centre) ขนาดใหญ่ในการทำงาน ทั้งการสอน (training) และ การเรียกใช้ (inference) การดูแลให้โมเดลใดสักโมเดลหนึ่งยังคงทำงานอยู่ก็นับว่าใช้ไฟฟ้าไปเป็นจำนวนมากแล้ว ยังไม่นับโมเดลขนาดใหญ่โมเดลอื่นอีก เช่น Bard ที่เป็น LLM จากฝั่ง Google

ข้อมูลจาก International Energy Agency (IEA) บอกไว้ว่า ในปี 2022 ที่ผ่านมา ปริมาณพลังงานไฟฟ้าที่ใช้หหล่อเลี้ยง data centre ทั้งโลกประมาณอยู่ที่ 1-1.3% จากการประมาณการการใช้ไฟฟ้าจากทั้งโลก หรือคิดเป็น 240-340 TWh มากกว่าการใช้ไฟของประเทศไทยทั้งประเทศในปี 2020 (193 TWh) ซึ่งแน่นอนว่ากลุ่มของผู้ให้บริการ cloud หรือให้บริการระบบคอมพิวเตอร์ก็ไม่ได้นิ่งนอนใจกับเรื่องนี้ หลายบริษัทมีการอัพเกรดระบบคอมพิวเตอร์ให้มีความทันสมัยมากขึ้น ประสิทธิภาพสูงขึ้น สร้างความร้อนน้อยลง ทำให้สามารถประหยัดไฟในการทำความเย็นได้มากขึ้น ซึ่งนั่นเป็นพลังงานส่วนหลักๆ ที่ศูนย์ข้อมูลจำเป็นต้องใช้กันเลยทีเดียว

และอีกตัวอย่างที่ประยุกต์ความคิดสร้างสรรค์แปลกๆ ได้ดีมากคือ Microsoft กับ Project Natik ที่เอาระบบคอมพิวเตอร์ใส่เข้าไปในกล่องเหล็กขนาดใหญ่ แล้วเอาไปไว้ใต้น้ำ เพื่อลดการใช้พลังงานเพื่อระบายความร้อนสำหรับระบบคอมพิวเตอร์ ซึ่งโครงการนี้เริ่มเอาระบบคอมพิวเตอร์ลงทะเลกันตั้งแต่ปี 2018 และผ่านไปสองปี Microsoft ได้ออกบทความหลังจากที่เอาระบบคอมพิวเตอร์ไว้ใต้ทะเล พบว่า ระบบมีความเชื่อถือได้มากกว่าระบบที่อยู่บนพื้นดินถึงแปดเท่ากันเลย และยังลดการใช้น้ำสำหรับหล่อเย็นระบบคอมพิวเตอร์ได้มหาศาล

 

5. AI ล้างเผ่าพันธุ์มนุษย์

อ่านหัวเรื่องดูเหมือนจะตลก แต่นี่เป็นเรื่องที่ผู้เชี่ยวชาญและนักวิทยาศาสตร์ออกมาเตือน เช่น สตีผ วอซนิแอ็ก (Steve Wozniak) ผู้ร่วมก่อตั้ง Apple ออกมาบอกเองเลยว่า อยากให้หยุดการพัฒนาระบบ AI ขั้นสูงไว้ชั่วคราว โดยมันอาจจะเป็นภัยร้ายสำหรับสังคมและมนุษยชาติ (“Profound risks to society and humanity.”)

อีกคนที่ออกมาพูดถึงในทางเดียวกันคือ นักฟิสิกส์อย่าง สตีเฟน ฮอว์กิง (Stephen Hawking) ออกมาเตือนเรื่องของการพัฒนา AI ที่มีความสามารถสูงมากๆ ว่า มันอาจจะจัดการตัวเอง เปลี่ยนแปลงตัวมันได้ด้วยตัวเอง และพัฒนาไปเป็นระบบที่เก่งกว่าเดิมได้ เทียบกับมนุษย์ที่อาศัยการเปลี่ยนแปลงด้วยการวิวัฒนาการซึ่งอาศัยเวลานานกว่าเครื่องจักรในการพัฒนามากทีเดียว

กลับกันมีการตอบโต้กลับว่า มันไม่น่าจะเป็นได้ขนาดนั้นหรอกนะ จนถึงเอามีม (meme) ที่ว่า AI ไม่สามารถแยกออกระหว่างมัฟฟินช็อกโกแลตชิพและหมาชิวาวา หรือกระทั่งการแยกสุนัขออกจากแมวแบบนั้นกันเลยทีเดียว

ถ้าเราได้ลองเข้าไปอ่านดู เราจะเจอความเห็นที่ทั้งโอเค ดูถูกต้องทางเทคนิค ฟังแล้วคิดต่อได้อย่างมีเหตุและผล แต่บางความเห็นเรียกว่าหลุดโลกไปไกลจนถึงแทบจะเอาไปเขียนเป็นนิยายไซไฟได้เลยทีเดียว แต่อย่าลืมว่านิยายไซไฟหลายเรื่องเขียนจากความรู้พื้นฐานทางวิทยาศาสตร์ มีเหตุและผลอยู่บ้างเหมือนกัน ประเด็นนี้คิดว่าอาจจะต้องใช้วิจารณาณในการอ่านกันสักนิด

จากความกังวลทั้งหมดที่ได้นำเสนอไป ผู้เชี่ยวชาญต่างคนก็ต่างมีข้อคิดเห็นของตัวเองที่อาจจะแตกต่างกัน AI มีทั้งข้อดีและข้อเสียในตัวเองมันเอง ทำให้เกิดการเปลี่ยนแปลง หรือมีการพัฒนาทางเทคโนโลยีมากขึ้นกว่าแต่ก่อนอยู่เรื่อยๆ ดังนั้น จะใช้ให้เกิดประโยชน์หรือโทษก็ขึ้นกับแนวทางที่เราในฐานะมนุษย์จะตัดสินใจหลังจากนี้ แล้วทุกคนละครับ จินตนาการถึงสังคมที่เราจะอยู่ร่วมกับ AI ในอนาคตไว้แบบไหน?

 


ข้อมูลอ้างอิง