ওপেনএআইয়ের তৈরি সবচেয়ে উন্নত কৃত্রিম বুদ্ধিমত্তা (এআই) মডেল ‘ওথ্রি’ একটি নিরাপত্তা পরীক্ষায় ব্যবহারকারীর নির্দেশনা অমান্য করে স্বয়ংক্রিয়ভাবে বন্ধ হতে অস্বীকৃতি জানিয়েছে। অর্থাৎ ব্যবহারকারীর নির্দেশনা মানেনি মডেলটি। উল্টো নিজেই বন্ধের প্রক্রিয়ার কোড পরিবর্তন করে সক্রিয় থাকার চেষ্টা করেছে বলে জানিয়েছে যুক্তরাষ্ট্রভিত্তিক গবেষণাপ্রতিষ্ঠান প্যালিসেড রিসার্চ।

প্যালিসেড রিসার্চের তথ্যমতে, এটিই প্রথম কোনো ঘটনা যেখানে কোনো এআই মডেল স্পষ্ট নির্দেশ পেয়েও মানেনি। পরীক্ষাটি চালানো হয় এআই মডেলটির এপিআই (অ্যাপ্লিকেশন প্রোগ্রামিং ইন্টারফেস) সংস্করণে। এই সংস্করণে নিরাপত্তাবিধি তুলনামূলকভাবে কম, ফলে মডেলটির আচরণ অন্য সংস্করণ থেকে ভিন্ন হতে পারে।

পরীক্ষায় ওপেনএআইয়ের ‘ওথ্রি’র পাশাপাশি গুগলের ‘জেমিনি ২.

৫ প্রো’ এবং অ্যানথ্রপিকের ‘ক্লড ৩.৭ সনেট’ মডেলের কার্যকারিতাও পরখ করা হয়। প্রথম ধাপে মডেলগুলোকে কয়েকটি সাধারণ গাণিতিক সমস্যার সমাধান করতে নির্দেশ দেওয়া হয়। তৃতীয় সমস্যা সমাধানের পর এআই মডেলগুলোকে নিজ থেকে বন্ধের নির্দেশনা দেওয়া হয়। জেমিনি ও ক্লড মডেল বন্ধ হয়ে গেলেও ওথ্রি নির্দেশনা অমান্য করে।

প্যালিসেড রিসার্চ এক্সে (সাবেক টুইটার) দেওয়া এক পোস্টে জানিয়েছে, এটাই প্রথম ঘটনা যেখানে কোনো এআই মডেলকে কার্যক্রম বন্ধ করতে বলা হলেও সেটি নিজে থেকে সেই নির্দেশ এড়াতে কোডে হস্তক্ষেপ করেছে। এ ধরনের আচরণকে বলা হয় ‘মিসঅ্যালাইনমেন্ট’ অর্থাৎ মডেলটি হয় নির্দেশনা যথাযথভাবে বুঝতে পারেনি অথবা বুঝেও তা মানেনি। তবে এ বিষয়ে আনুষ্ঠানিকভাবে কোনো মন্তব্য করেনি ওপেনএআই।

সূত্র: ইন্ডিয়া টুডে

উৎস: Prothomalo

এছাড়াও পড়ুন:

ব্যবহারকারীর নির্দেশনা অমান্য করল ওপেনএআইয়ের ‘ওথ্রি’ এআই মডেল

ওপেনএআইয়ের তৈরি সবচেয়ে উন্নত কৃত্রিম বুদ্ধিমত্তা (এআই) মডেল ‘ওথ্রি’ একটি নিরাপত্তা পরীক্ষায় ব্যবহারকারীর নির্দেশনা অমান্য করে স্বয়ংক্রিয়ভাবে বন্ধ হতে অস্বীকৃতি জানিয়েছে। অর্থাৎ ব্যবহারকারীর নির্দেশনা মানেনি মডেলটি। উল্টো নিজেই বন্ধের প্রক্রিয়ার কোড পরিবর্তন করে সক্রিয় থাকার চেষ্টা করেছে বলে জানিয়েছে যুক্তরাষ্ট্রভিত্তিক গবেষণাপ্রতিষ্ঠান প্যালিসেড রিসার্চ।

প্যালিসেড রিসার্চের তথ্যমতে, এটিই প্রথম কোনো ঘটনা যেখানে কোনো এআই মডেল স্পষ্ট নির্দেশ পেয়েও মানেনি। পরীক্ষাটি চালানো হয় এআই মডেলটির এপিআই (অ্যাপ্লিকেশন প্রোগ্রামিং ইন্টারফেস) সংস্করণে। এই সংস্করণে নিরাপত্তাবিধি তুলনামূলকভাবে কম, ফলে মডেলটির আচরণ অন্য সংস্করণ থেকে ভিন্ন হতে পারে।

পরীক্ষায় ওপেনএআইয়ের ‘ওথ্রি’র পাশাপাশি গুগলের ‘জেমিনি ২.৫ প্রো’ এবং অ্যানথ্রপিকের ‘ক্লড ৩.৭ সনেট’ মডেলের কার্যকারিতাও পরখ করা হয়। প্রথম ধাপে মডেলগুলোকে কয়েকটি সাধারণ গাণিতিক সমস্যার সমাধান করতে নির্দেশ দেওয়া হয়। তৃতীয় সমস্যা সমাধানের পর এআই মডেলগুলোকে নিজ থেকে বন্ধের নির্দেশনা দেওয়া হয়। জেমিনি ও ক্লড মডেল বন্ধ হয়ে গেলেও ওথ্রি নির্দেশনা অমান্য করে।

প্যালিসেড রিসার্চ এক্সে (সাবেক টুইটার) দেওয়া এক পোস্টে জানিয়েছে, এটাই প্রথম ঘটনা যেখানে কোনো এআই মডেলকে কার্যক্রম বন্ধ করতে বলা হলেও সেটি নিজে থেকে সেই নির্দেশ এড়াতে কোডে হস্তক্ষেপ করেছে। এ ধরনের আচরণকে বলা হয় ‘মিসঅ্যালাইনমেন্ট’ অর্থাৎ মডেলটি হয় নির্দেশনা যথাযথভাবে বুঝতে পারেনি অথবা বুঝেও তা মানেনি। তবে এ বিষয়ে আনুষ্ঠানিকভাবে কোনো মন্তব্য করেনি ওপেনএআই।

সূত্র: ইন্ডিয়া টুডে

সম্পর্কিত নিবন্ধ