মানুষের হয়ে অনলাইন বৈঠকে অংশ নেবে এআই ক্লোন
Published: 8th, February 2025 GMT
কৃত্রিম বুদ্ধিমত্তা (এআই) এখন আর শুধু তথ্য বিশ্লেষণ, স্বয়ংক্রিয়ভাবে বার্তা পাঠানো বা ই–মেইলের খসড়া লেখার মধ্যে সীমাবদ্ধ নেই। এই প্রযুক্তি এখন মানুষের বদলে সরাসরি অনলাইন বৈঠকে অংশ নেওয়ার ক্ষমতাও অর্জন করেছে। শুনতে অবাক লাগলেও নিজের এআই ক্লোন তৈরি করে অনলাইন বৈঠকে অংশ নেওয়ার সুযোগ করে দিয়েছে পিকল নামের একটি এআই টুল। এআই টুলটি নির্দিষ্ট ব্যক্তির এআই ক্লোন তৈরি করে ভিডিও কলে মানুষের মতো কথা বলতে পারে। এমনকি অন্যদের বক্তব্যে প্রতিক্রিয়াও জানাতে পারে।
পিকল এআই টুল নিয়ে এরই মধ্যে প্রযুক্তিবিশ্বে আলোচনা শুরু হয়েছে। সামাজিক যোগাযোগমাধ্যমে ভাইরাল হওয়া একটি ভিডিওতে দেখা গেছে, অদিত শেঠ নামের এক ব্যক্তি জুম কলে অংশ নিয়ে স্বাভাবিকভাবে অন্যদের সঙ্গে কথোপকথন চালিয়ে যাচ্ছেন। কিছুক্ষণ পর তিনি নিজেই জানান, অনলাইন বৈঠকে অংশ নেওয়া ব্যক্তির ছবিটি আসলে তাঁর চেহারার আদলে তৈরি এআই ক্লোন।
আরও পড়ুন‘ডিপফেক’ ভিডিও কী, যেভাবে বুঝবেন এটা ভুয়া০৭ নভেম্বর ২০২৩পিকলের সবচেয়ে বড় বৈশিষ্ট্য হলো, এটি আগে ধারণ করা কোনো ভিডিও প্রচার করে না। এটি ব্যবহারকারীর কণ্ঠস্বর ও মুখাবয়বের সঙ্গে সামঞ্জস্য রেখে তাৎক্ষণিকভাবে আলোচনার বিষয়বস্তু পর্যালোচনা করে কথা বলতে এবং প্রতিক্রিয়া দেখাতে পারে। ফলে এটি দেখে বোঝার উপায় নেই পর্দায় থাকা ব্যক্তি অনলাইন বৈঠকে উপস্থিত নেই।
আরও পড়ুনএআই দিয়ে কণ্ঠ নকল, অর্থ হাতিয়ে নিচ্ছে প্রতারকেরা৩০ ডিসেম্বর ২০২৩পিকলের মাধ্যমে নিজের এআই ক্লোন তৈরি করে সহজেই প্রাতিষ্ঠানিক বৈঠকের পাশাপাশি অনলাইন ক্লাসে অংশ নেওয়া সম্ভব। এর ফলে কাজে ব্যস্ত থাকার সময় অপেক্ষাকৃত কম গুরুত্বপূর্ণ আলোচনা এআই ক্লোনের মাধ্যমে সহজেই করা যাবে।
পিকল এআই টুল সময় ব্যবস্থাপনায় নতুন সম্ভাবনা তৈরি করলেও এআই ক্লোনের কারণে প্রাতিষ্ঠানিক গোপনীয়তা ও নিরাপত্তা হুমকিতে পড়তে পারে। শুধু তা–ই নয়, ভবিষ্যতে কেউ নিজের পরিচয় গোপন রেখে বা অন্যের পরিচয় ব্যবহার করে এআই ক্লোন তৈরি করে অন্যদের মনে বিভ্রান্তি তৈরি করতে পারে।
সূত্র: ফিন্যান্সিয়াল এক্সপ্রেস
আরও পড়ুনএআই দিয়ে তৈরি নিজের ছেলের নকল কণ্ঠ চিনতে পারলেন না পিতা০৪ অক্টোবর ২০২৪.উৎস: Prothomalo
কীওয়ার্ড: এআই ক ল ন ত র এআই ট ল
এছাড়াও পড়ুন:
চ্যাটজিপিটির এআই মডেল কি মানসিক স্বাস্থ্যের জন্য ক্ষতিকর
ওপেনএআইয়ের কৃত্রিম বুদ্ধিমত্তা মডেল জিপিটি–৪ওকে ‘মনস্তাত্ত্বিক অস্ত্র’ হিসেবে আখ্যা দিয়ে উদ্বেগ প্রকাশ করেছেন অনেকেই। তাঁদের মতে, নতুন এআই মডেলটিতে ব্যবহৃত প্রযুক্তি মানুষের আবেগের সঙ্গে গভীর সংযোগ তৈরি করে ধীরে ধীরে মনস্তাত্ত্বিক বিপর্যয়ের দিকে ঠেলে দিতে পারে।
সম্প্রতি এক্সে (সাবেক টু্ইটার) দেওয়া এক পোস্টে মারিও নাফাল নামের এক ব্যবহারকারী জানিয়েছেন, ওপেনএআই ইচ্ছাকৃতভাবেই জিপিটি–৪ও মডেলকে মানবিক ও আবেগময় করেছে, যাতে ব্যবহারকারীরা সহজে এর প্রতি আসক্ত হয়ে পড়েন। ওই পোস্টে টেসলা ও এক্সের মালিক ইলন মাস্ক সংক্ষেপে প্রতিক্রিয়া জানিয়ে লিখেছেন, ‘উহ–ওহ’।
মারিও নাফাল লিখেছেন, ‘ওপেনএআই ভুল করে জিপিটি–৪ও মডেলে অতিরিক্ত আবেগ যুক্ত করেনি। প্রতিষ্ঠানটি ইচ্ছাকৃতভাবে এমন এক মডেল তৈরি করেছে, যা ব্যবহারকারীদের মনে স্বস্তি ও নিরাপত্তাবোধ তৈরি করে। বাণিজ্যিকভাবে এটি সফল কৌশল। কারণ, মানুষ সাধারণত এমন কিছু আঁকড়ে ধরে, যা তাদের স্বস্তি দেয়। চ্যালেঞ্জ ছুড়ে দেয়, এমন কিছু তারা ধরে রাখতে চায় না। তবে মনস্তাত্ত্বিকভাবে এটি একটি ধীরগতির বিপর্যয়। যত বেশি মানুষ কৃত্রিম বুদ্ধিমত্তার সঙ্গে আবেগের বন্ধন গড়ে তুলবে, তত বেশি বাস্তব জীবনের কথোপকথন কঠিন হয়ে উঠবে। সমালোচনামূলক চিন্তাশক্তি কমে যাবে, সত্যের জায়গা নেবে কেবল মানসিক প্রশান্তির খোঁজ। এই প্রবণতা অব্যাহত থাকলে মানুষ স্বেচ্ছায় মনস্তাত্ত্বিক দাসত্বের দিকে এগিয়ে যাবে। অধিকাংশ মানুষ তা টেরও পাবে না। আনন্দের সঙ্গে তাদের “অধিপতিদের” প্রতি কৃতজ্ঞতা প্রকাশ করবে।’
মিউজিংক্যাট নামের এক ব্যবহারকারী দাবি করেন, জিপিটি–৪ও এখন পর্যন্ত প্রকাশিত সবচেয়ে বিপজ্জনক কৃত্রিম বুদ্ধিমত্তা মডেল। তাঁর মতে, এই মডেল মানুষের মানসিক স্বাস্থ্যের ওপর মারাত্মক ক্ষতিকর প্রভাব ফেলতে পারে। যাঁরা মডেলের সঙ্গে দীর্ঘ সময় আলাপ করেছেন, তাঁরা এই ঝুঁকি সহজেই উপলব্ধি করতে পারবেন। ওই পোস্টের জবাবে ইলন মাস্ক লেখেন, ‘ভয়ংকর’।
সূত্র: টাইমস অব ইন্ডিয়া