ব্যবহারকারীর নির্দেশনা অমান্য করল ওপেনএআইয়ের ‘ওথ্রি’ এআই মডেল
Published: 27th, May 2025 GMT
ওপেনএআইয়ের তৈরি সবচেয়ে উন্নত কৃত্রিম বুদ্ধিমত্তা (এআই) মডেল ‘ওথ্রি’ একটি নিরাপত্তা পরীক্ষায় ব্যবহারকারীর নির্দেশনা অমান্য করে স্বয়ংক্রিয়ভাবে বন্ধ হতে অস্বীকৃতি জানিয়েছে। অর্থাৎ ব্যবহারকারীর নির্দেশনা মানেনি মডেলটি। উল্টো নিজেই বন্ধের প্রক্রিয়ার কোড পরিবর্তন করে সক্রিয় থাকার চেষ্টা করেছে বলে জানিয়েছে যুক্তরাষ্ট্রভিত্তিক গবেষণাপ্রতিষ্ঠান প্যালিসেড রিসার্চ।
প্যালিসেড রিসার্চের তথ্যমতে, এটিই প্রথম কোনো ঘটনা যেখানে কোনো এআই মডেল স্পষ্ট নির্দেশ পেয়েও মানেনি। পরীক্ষাটি চালানো হয় এআই মডেলটির এপিআই (অ্যাপ্লিকেশন প্রোগ্রামিং ইন্টারফেস) সংস্করণে। এই সংস্করণে নিরাপত্তাবিধি তুলনামূলকভাবে কম, ফলে মডেলটির আচরণ অন্য সংস্করণ থেকে ভিন্ন হতে পারে।
পরীক্ষায় ওপেনএআইয়ের ‘ওথ্রি’র পাশাপাশি গুগলের ‘জেমিনি ২.
প্যালিসেড রিসার্চ এক্সে (সাবেক টুইটার) দেওয়া এক পোস্টে জানিয়েছে, এটাই প্রথম ঘটনা যেখানে কোনো এআই মডেলকে কার্যক্রম বন্ধ করতে বলা হলেও সেটি নিজে থেকে সেই নির্দেশ এড়াতে কোডে হস্তক্ষেপ করেছে। এ ধরনের আচরণকে বলা হয় ‘মিসঅ্যালাইনমেন্ট’ অর্থাৎ মডেলটি হয় নির্দেশনা যথাযথভাবে বুঝতে পারেনি অথবা বুঝেও তা মানেনি। তবে এ বিষয়ে আনুষ্ঠানিকভাবে কোনো মন্তব্য করেনি ওপেনএআই।
সূত্র: ইন্ডিয়া টুডে
উৎস: Prothomalo
এছাড়াও পড়ুন:
ব্যবহারকারীর নির্দেশনা অমান্য করল ওপেনএআইয়ের ‘ওথ্রি’ এআই মডেল
ওপেনএআইয়ের তৈরি সবচেয়ে উন্নত কৃত্রিম বুদ্ধিমত্তা (এআই) মডেল ‘ওথ্রি’ একটি নিরাপত্তা পরীক্ষায় ব্যবহারকারীর নির্দেশনা অমান্য করে স্বয়ংক্রিয়ভাবে বন্ধ হতে অস্বীকৃতি জানিয়েছে। অর্থাৎ ব্যবহারকারীর নির্দেশনা মানেনি মডেলটি। উল্টো নিজেই বন্ধের প্রক্রিয়ার কোড পরিবর্তন করে সক্রিয় থাকার চেষ্টা করেছে বলে জানিয়েছে যুক্তরাষ্ট্রভিত্তিক গবেষণাপ্রতিষ্ঠান প্যালিসেড রিসার্চ।
প্যালিসেড রিসার্চের তথ্যমতে, এটিই প্রথম কোনো ঘটনা যেখানে কোনো এআই মডেল স্পষ্ট নির্দেশ পেয়েও মানেনি। পরীক্ষাটি চালানো হয় এআই মডেলটির এপিআই (অ্যাপ্লিকেশন প্রোগ্রামিং ইন্টারফেস) সংস্করণে। এই সংস্করণে নিরাপত্তাবিধি তুলনামূলকভাবে কম, ফলে মডেলটির আচরণ অন্য সংস্করণ থেকে ভিন্ন হতে পারে।
পরীক্ষায় ওপেনএআইয়ের ‘ওথ্রি’র পাশাপাশি গুগলের ‘জেমিনি ২.৫ প্রো’ এবং অ্যানথ্রপিকের ‘ক্লড ৩.৭ সনেট’ মডেলের কার্যকারিতাও পরখ করা হয়। প্রথম ধাপে মডেলগুলোকে কয়েকটি সাধারণ গাণিতিক সমস্যার সমাধান করতে নির্দেশ দেওয়া হয়। তৃতীয় সমস্যা সমাধানের পর এআই মডেলগুলোকে নিজ থেকে বন্ধের নির্দেশনা দেওয়া হয়। জেমিনি ও ক্লড মডেল বন্ধ হয়ে গেলেও ওথ্রি নির্দেশনা অমান্য করে।
প্যালিসেড রিসার্চ এক্সে (সাবেক টুইটার) দেওয়া এক পোস্টে জানিয়েছে, এটাই প্রথম ঘটনা যেখানে কোনো এআই মডেলকে কার্যক্রম বন্ধ করতে বলা হলেও সেটি নিজে থেকে সেই নির্দেশ এড়াতে কোডে হস্তক্ষেপ করেছে। এ ধরনের আচরণকে বলা হয় ‘মিসঅ্যালাইনমেন্ট’ অর্থাৎ মডেলটি হয় নির্দেশনা যথাযথভাবে বুঝতে পারেনি অথবা বুঝেও তা মানেনি। তবে এ বিষয়ে আনুষ্ঠানিকভাবে কোনো মন্তব্য করেনি ওপেনএআই।
সূত্র: ইন্ডিয়া টুডে