एयर कनाडा चैटबॉट त्रुटि एआई के उद्यम दायित्व खतरे को रेखांकित करती है

[ad_1]

कनाडा में एक नागरिक न्यायाधिकरण ने एयर कनाडा को ग्राहक-सेवा चैटबॉट द्वारा की गई गलती के लिए भुगतान करने का आदेश दिया है, जिससे कंपनियों को अपने कृत्रिम बुद्धिमत्ता (एआई) उपकरणों को बेहतर ढंग से प्रशिक्षित करने और निगरानी करने की आवश्यकता पर प्रकाश डाला गया है।

ब्रिटिश कोलंबिया निवासी जेक मोफ़ैट ने नवंबर 2022 में ओंटारियो में अपनी दादी के अंतिम संस्कार के लिए उड़ान बुक करने के लिए एयर कनाडा की वेबसाइट पर गए। वेबसाइट के चैटबॉट ने उन्हें बताया कि अगर उन्होंने 90 दिनों के भीतर छूट के लिए आवेदन किया तो उन्हें अगले दिन के टिकट और वापसी टिकट का एक हिस्सा वापस किया जा सकता है।

वह जानकारी ग़लत थी; एयर कनाडा की नीति, जो उसकी वेबसाइट पर उपलब्ध है, यदि ग्राहक पहले से आवेदन करता है तो शोक छूट प्रदान करना है। एयर कनाडा द्वारा छूट प्रदान करने से इनकार करने के बाद, एक कनाडाई न्यायाधिकरण ने एयरलाइन को शोक रिफंड और न्यायाधिकरण लागत में लगभग 600 डॉलर का भुगतान करने का आदेश दिया – टिकटों के लिए मोफ़ैट द्वारा भुगतान की गई राशि का लगभग आधा।

गार्टनर में एआई पर केंद्रित एक प्रतिष्ठित उपाध्यक्ष विश्लेषक अविवा लिटन ने कहा, चैटबॉट और अन्य जेनरेटिव एआई (जेनएआई) टूल का उपयोग करने वाली कंपनियों को “चैटबॉट उत्पादकता लाभ से पैसा बचाने के लिए” निगरानी प्रयासों में निवेश करना चाहिए। “अन्यथा, वे उत्पादकता लाभ से होने वाली कमाई की तुलना में कानूनी फीस और जुर्माने पर अधिक खर्च करेंगे।”

एयर कनाडा मामले में, ब्रिटिश कोलंबिया सिविल रिज़ॉल्यूशन ट्रिब्यूनल के सदस्य क्रिस्टोफर रिवर, मोफ़ैट का पक्ष लिया और एयरलाइन के इस दावे को खारिज कर दिया कि चैटबॉट “एक अलग कानूनी इकाई है जो अपने कार्यों के लिए जिम्मेदार है।”

रिवर कनाडा ने अपने 14 फरवरी के फैसले में लिखा है कि एयर कनाडा यह नहीं बता सका कि उसकी वेबसाइट पर शोक छूट की जानकारी चैटबॉट द्वारा प्रदान की गई जानकारी से अधिक विश्वसनीय क्यों थी। उन्होंने कहा, “एयर कनाडा पर श्री मोफ़ैट की देखभाल का कर्तव्य है।” “आम तौर पर, देखभाल के लागू मानक के लिए कंपनी को यह सुनिश्चित करने के लिए उचित देखभाल की आवश्यकता होती है कि उनका प्रतिनिधित्व सटीक है और भ्रामक नहीं है।”

एआई बाजार पर ध्यान केंद्रित करने वाले तीन विश्लेषक इस बात पर सहमत हुए कि चैटबॉट और अन्य एआई टूल का उपयोग करने वाली कंपनियों को अपने आउटपुट की जांच करने की आवश्यकता है। लगभग 30% जेनएआई उत्तर काल्पनिक हैं, एक आउटपुट जिसे “मतिभ्रम” कहा जाता है, लिटन ने कहा।

उन्होंने कहा, “चैटबॉट्स का उपयोग करने वाली कंपनियों को रेलिंग का उपयोग करना चाहिए जो मतिभ्रम, गलत और अवैध जानकारी जैसे आउटपुट विसंगतियों को उजागर करता है – और मानव समीक्षा संचालन स्थापित करता है जो इन आउटपुट की जांच करता है और उन्हें प्रसारित होने से पहले ब्लॉक या अनुमोदित करता है।” “उन्हें यह सुनिश्चित करना होगा कि आउटपुट, विशेष रूप से ग्राहक-सामना वाले अनुप्रयोगों में, सटीक हों और वे ग्राहकों या चैटबॉट का प्रबंधन करने वाले संगठन को गलत रास्ते पर न ले जाएं।”

उन्होंने तर्क दिया कि जेनएआई चैटबॉट ग्राहक-सेवा इंटरैक्शन के लिए तैयार नहीं हैं, जब तक कि उनका उपयोग करने वाली कंपनियां विश्वसनीयता, सुरक्षा और सुरक्षा नियंत्रण में निवेश नहीं करती हैं। चैटबॉट का उपयोग करने वाली कंपनियों को विसंगति का पता लगाने वाले टूल द्वारा हाइलाइट की गई अप्रत्याशित प्रतिक्रियाओं की मैन्युअल रूप से समीक्षा करने के लिए नए ऑपरेशन स्थापित करने चाहिए।

आईडीसी में ज्ञान खोज और संवादी एआई के अनुसंधान प्रबंधक हेले सदरलैंड ने कहा कि ऐसे मामले जहां चैटबॉट गलत जानकारी प्रदान करते हैं, कंपनियों को जिम्मेदार एआई पर ध्यान केंद्रित करने की आवश्यकता पर प्रकाश डालते हैं। उन्होंने सुझाव दिया कि कंपनियों को अपने द्वारा उपयोग किए जाने वाले एआई उपकरणों के परीक्षण और प्रशिक्षण में निवेश करने की आवश्यकता है।

उन्होंने कहा, “चाहे किसी भी प्रारूप या यूआई (एआई) में वितरित किया गया हो, कंपनियों को ग्राहकों को प्रदान की जाने वाली जानकारी के लिए ज़िम्मेदार ठहराया जाता है, इसलिए सावधानी से आगे बढ़ना बुद्धिमानी है।”

सदरलैंड ने सिफारिश की कि चैटबॉट और अन्य एआई टूल पर नजर रखने वाली कंपनियां सीधे ग्राहक सेवा में कूदने के बजाय, पहले कम संवेदनशील आंतरिक मामलों, जैसे कर्मचारी ज्ञान सहायता, के लिए उनका उपयोग करें।

उन्होंने कहा कि एआई मतिभ्रम सुनने में विश्वसनीय लग सकता है, भले ही वे गलत जानकारी प्रदान करते हों। समस्या से निपटने के लिए, “जनरेटिव एआई सिस्टम में ‘लूप में मानव’ और प्रशिक्षण चरण के दौरान चैटबॉट आउटपुट को बाध्य करने, ग्राउंड करने और मान्य करने के साथ-साथ निरंतर परीक्षण के लिए अन्य तंत्र शामिल होने चाहिए,” सदरलैंड ने कहा।

फॉरेस्टर के उपाध्यक्ष और प्रमुख विश्लेषक डेविड ट्रूग ने कहा, एक और समस्या यह है कि वर्तमान चैटबॉट केवल कुछ सरल कार्यों को ही संभाल सकते हैं। “दुर्भाग्य से, चैटबॉट तैनात करने वाली कंपनियां अक्सर बॉट्स की प्रभावशीलता पर अति आत्मविश्वास रखती हैं,” उन्होंने कहा। “वे एक प्रभावी बॉट बनाने की जटिलता को कम आंकते हैं; जिस चीज़ की वे अक्सर और विनाशकारी रूप से उपेक्षा करते हैं वह मानव-केंद्रित डिज़ाइन और वार्तालाप डिज़ाइन में बहुत आवश्यक विशेषज्ञता है।

उन्होंने कहा, कंपनियों को चैटबॉट्स को विशेष कानूनी दर्जा मिलने की उम्मीद नहीं करनी चाहिए।

ट्रूग ने कहा, “चैटबॉट किसी कंपनी की बाकी वेबसाइट या ऐप की तरह ही सॉफ्टवेयर हैं।” “और कोई भी संगठन जो अपनी ओर से अपने ग्राहकों के साथ बातचीत करने के लिए सॉफ़्टवेयर तैनात करता है, वह सॉफ़्टवेयर जो कुछ भी करता है उसके लिए ज़िम्मेदार होता है। ग्राहकों के लिए चैटबॉट्स को कुछ हद तक मानवरूपी बनाना आम बात है क्योंकि वे मानवीय भाषाओं का उपयोग करते हैं, लेकिन कंपनियों के लिए ऐसा करने का कोई बहाना नहीं है कि जब उनके बॉट दुर्व्यवहार करते हैं तो वे किसी भी जिम्मेदारी से हाथ धो लें।

कॉपीराइट © 2024 आईडीजी कम्युनिकेशंस, इंक.

[ad_2]

Source link

Leave a Comment