ในเวลาเพียงไม่กี่ปีสั้นๆ AI ได้กลายเป็นส่วนหนึ่งของการดำเนินธุรกิจในชีวิตประจำวัน หลายบริษัทกำลังเคลื่อนไหวอย่างรวดเร็วในการทำให้กระบวนการเป็นอัตโนมัติและพึ่งพาระบบที่ขับเคลื่อนด้วย AI แต่ตาม Georg Meyer นักยุทธศาสตร์และผู้เชี่ยวชาญด้านระบบ ความเร็วและความสะดวกสบายอาจมาพร้อมกับต้นทุน โดยเฉพาะเมื่อธุรกิจสูญเสียการมองเห็นว่าระบบที่สำคัญที่สุดของพวกเขาทำงานอย่างไร
Meyer เตือนว่าหนึ่งในความเสี่ยงที่ใหญ่ที่สุดคือความรู้สึกเข้าใจที่ผิดพลาด "บริษัทอาจคิดว่าพวกเขารู้ว่าเกิดอะไรขึ้นเพราะคำสั่งที่พวกเขาให้ไว้" เขาอธิบาย "แต่พวกเขาไม่มีการมองเห็นที่แท้จริงว่าเกิดอะไรขึ้นภายในกล่อง"

ระบบ AI สมัยใหม่ โดยเฉพาะโมเดลภาษาขนาดใหญ่ มีความทรงพลังแต่ยากที่จะตรวจสอบอย่างเต็มที่ กระบวนการภายในของพวกมันไม่โปร่งใสเสมอไป และผลลัพธ์อาจแตกต่างกันเนื่องจากความสุ่มที่มีอยู่ภายใน สิ่งนี้สร้างความท้าทายเกี่ยวกับความสม่ำเสมอและความน่าเชื่อถือ โดยเฉพาะเมื่อ AI ถูกใช้ในฟังก์ชันธุรกิจหลัก "มีความเสี่ยงที่ซ่อนอยู่ต่อการทำซ้ำและความน่าเชื่อถือ" Meyer กล่าว "ซึ่งอาจเป็นหายนะเมื่อส่งผลกระทบต่อหัวใจของบริษัท"
สำหรับ Meyer แนวทางแก้ไขไม่ใช่การหลีกเลี่ยง AI แต่เพื่อให้แน่ใจว่าความเข้าใจของมนุษย์ยังคงเป็นศูนย์กลาง ธุรกิจยังคงต้องการผู้คนที่รู้ว่าระบบทำงานอย่างไร แม้ว่าระบบเหล่านั้นจะได้รับการสนับสนุนจาก AI
ผลประโยชน์ระยะสั้น ความเสี่ยงระยะยาว
ความกังวลอีกประการหนึ่งที่ Meyer เน้นย้ำคือผลกระทบระยะยาวของ AI ต่อความเชี่ยวชาญภายในองค์กร แม้ว่า AI สามารถเร่งความเร็วของขั้นตอนการทำงานและช่วยเปลี่ยนความรู้เป็นการกระทำได้อย่างมาก แต่การพึ่งพามากเกินไปอาจมาพร้อมกับผลที่ตามมาที่ไม่ได้ตั้งใจ
"ทั้งการพึ่งพามากเกินไปและน้อยเกินไปอาจมีความเสี่ยง" Meyer กล่าว "AI สามารถลดเวลาที่ใช้ในการนำความเชี่ยวชาญไปใช้ได้ แต่มันทำให้เกิดคำถามสำคัญว่า เราจะฝึกอบรมผู้เชี่ยวชาญรุ่นต่อไปอย่างไรหากพวกเขาไม่เคยพัฒนาพื้นฐาน?"
ในระยะสั้น AI สามารถทำให้ทีมมีประสิทธิภาพมากขึ้น แต่หากพนักงานเริ่มพึ่งพามันสำหรับการคิดหลักและการแก้ปัญหา ธุรกิจเสี่ยงที่จะสูญเสียความเชี่ยวชาญที่จำเป็นในการจัดการกับสถานการณ์ที่ซับซ้อน ไม่คาดคิด หรือสถานการณ์ที่ต้องการสัมผัสของมนุษย์ Meyer เชื่อว่าบริษัทและนักการศึกษาต่างก็ต้องตั้งใจรักษาความรู้พื้นฐาน โดยเฉพาะสำหรับสถานการณ์ที่ไม่สามารถพึ่งพา AI ได้
ความรับผิดชอบยังคงเป็นของมนุษย์
บางทีประเด็นที่สำคัญที่สุดที่ Meyer ยกขึ้นคือความรับผิดชอบ เมื่อระบบ AI รับผิดชอบมากขึ้น บางองค์กรอาจถูกล่อใจให้โยนความผิดเมื่อสิ่งต่างๆ ผิดพลาด Meyer ชัดเจนว่านี่ไม่ใช่แนวทางที่เป็นไปได้
"ความรับผิดชอบและคู่หูทางกฎหมายของมัน ความรับผิดทางกฎหมาย ถูกผูกติดกับมนุษย์โดยพื้นฐาน" เขากล่าว "คุณไม่สามารถล้างมือของคุณจากผลลัพธ์ที่ไม่ดีโดยการพูดว่า 'AI ทำมัน'"
เขาชี้ให้เห็นว่าหลายบริษัทกำลังพยายามนำทางในพื้นที่สีเทานี้อยู่แล้ว ผู้ให้บริการ AI มักรวมข้อจำกัดความรับผิดชอบที่ระบุว่าระบบของพวกเขาสามารถทำผิดพลาดได้ ในขณะที่อุตสาหกรรมเช่นยานยนต์ส่งเสริมคุณสมบัติ "ขับขี่อัตโนมัติ" แต่ยังคงถือว่าคนขับมนุษย์เป็นผู้รับผิดชอบ อย่างไรก็ตาม Meyer แย้งว่าหากระบบเป็นอัตโนมัติอย่างแท้จริง ความรับผิดชอบต้องเปลี่ยนไปยังผู้ที่ออกแบบและใช้งานมัน
สิ่งนี้ใช้ได้แม้ในกรณีการใช้งานประจำวันที่เล็กกว่า ตัวอย่างเช่น ธุรกิจที่ใช้ AI เพื่อสร้างแอปพลิเคชันที่จัดการข้อมูลที่ละเอียดอ่อนไม่สามารถสันนิษฐานว่าเทคโนโลยีจะจัดการความปลอดภัยได้อย่างถูกต้อง "AI ไม่ได้รับมอบหมายให้ดูแลข้อมูล" Meyer กล่าว "แต่บริษัทต่างหาก"








