এআই নিয়ে উদ্বিগ্ন বিভিন্ন বার্তাসংস্থা, নিয়ন্ত্রণে আইন চেয়ে খোলা চিঠি

সবখানেই এখন কৃত্রিম বুদ্ধিমত্তার (এআই) ব্যবহার। এআই প্রযুক্তির অনেক বিষয়ই এখনো অনেকের অজানা। এই প্রযুক্তি নিয়ে কিছু নতুন বিষয় সামনে এসেছে। এরই মাঝে কৃত্রিম বুদ্ধিমত্তা ব্যবহারের ক্ষেত্রে একটি মানদণ্ড তৈরি করার ওপর জোর দিচ্ছে বিভিন্ন সংবাদ সংস্থা, লেখক ও ফটোগ্রাফারদের সংগঠন। বিশেষ করে মেধাস্বত্বের অপব্যবহার ও ভুল তথ্য ছড়ানো নিয়ে তাঁরা উদ্বিগ্ন। 

একটি খোলা চিঠির মাধ্যমে গত বুধবার (৯ আগস্ট) তাঁরা বলেন, প্রযুক্তি খুব দ্রুততার সঙ্গে অগ্রসর হচ্ছে। ফলে নিয়ন্ত্রক সংস্থাগুলো এর সঙ্গে তাল মেলাতে পারছে না। প্রযুক্তি ব্যবহারে জরুরি ভিত্তিতে কিছু নিয়ম প্রবর্তন করা উচিত। 

তাঁরা আরও বলেন, ‘আমরা কৃত্রিম বুদ্ধিমত্তার দায়িত্বশীল উন্নতি ও প্রয়োগ সমর্থন করি। আমরা বিশ্বাস করি, একটি আইনি কাঠামো থাকা উচিত যা এআই অ্যাপ্লিকেশনগুলোতে  ব্যবহার করা হয় এমন কনটেন্টের নিরাপত্তা দেবে। সেই সঙ্গে সংবাদমাধ্যমের ওপর জনগণের আস্থা অটুট থাকবে।’ 

চিঠিটিতে দ্য অ্যাসোসিয়েটেড প্রেস (এপি), গ্যানেট, দ্য নিউজ মিডিয়া অ্যালায়েন্স, গেটি ইমেজ, দ্য ন্যাশনাল প্রেস ফটোগ্রাফারস অ্যাসোসিয়েশন, এজেন্স ফ্রান্স–প্রেস (এএফপি)–সহ বেশ কয়েকটি প্রতিষ্ঠান স্বাক্ষর করেছে।

এআইকে প্রশিক্ষণ দিতে বিভিন্ন বুদ্ধিবৃত্তিক সম্পদ ব্যবহার করা হয়। এই মেধাস্বত্বের আসল মালিকেরা যেন তাঁদের কাজের প্রাপ্য স্বীকৃতি পান সে বিষয়ে এআই প্রতিষ্ঠানগুলোকে সতর্ক থাকার আহ্বান জানানো হয়েছে।

এদিকে, কৃত্রিম বুদ্ধিমত্তা প্রযুক্তি অ্যাপলের সফটওয়্যার সিরির মতো ভার্চুয়াল সহকারীর ব্যবহার বাড়িয়ে দিয়েছে। এ ছাড়া কাজ করছে মুঠোফোনের মাধ্যমে চেহারা শনাক্ত করতে।

যেসব প্রোগ্রাম বা সরঞ্জাম ব্যবহার করে কনটেন্ট বা আধেয় তৈরি করা যায়, সেই খাতকে চাঙা করে তুলেছে এআই। চ্যাটজিপিটি ও বার্ডের মতো চ্যাটবটগুলো সফটওয়্যার কোড লেখার পাশাপাশি বই লেখার কাজেও ব্যবহার করা হচ্ছে। কৃত্রিম বুদ্ধিমত্তাসম্পন্ন কণ্ঠস্বর প্রয়োগের প্রোগ্রামগুলো বিভিন্ন ক্ষেত্রে তারকাদের মতো কণ্ঠস্বর তৈরি করে দিচ্ছে। অল্প কিছু টেক্সট দিয়েই দারুণ ছবি তৈরি করে দিচ্ছে কৃত্রিম বুদ্ধিমান প্রোগ্রাম।

চ্যাটবটের মাধ্যমে অনেক সময় ভুয়া তথ্য বা ভুয়া উৎসের তথ্য সামনে চলে আসতে পারে। বিভিন্ন ষড়যন্ত্রমূলক তত্ত্ব ও বৈষম্যমূলক তথ্যও সামনে হাজির করতে পারে। এর কাজে পক্ষপাত থাকতে পারে।

এআই বিষয়ে নীতি বিশেষজ্ঞরা বলছেন, এটি টুইটার ও উইকিপিডিয়ার মতো সূত্র থেকে মানুষের নানা তথ্য হাজির করে আনে। এ সময় এআই নানা সমস্যা ও বিভিন্ন পক্ষপাতমূলক বিষয় শিখে যায়। এআই প্রতিষ্ঠানগুলোর পক্ষ থেকে অবশ্য ঠিক করে দেওয়া হয়, কী বলা যাবে বা কী বলা যাবে না। কিন্তু এসব বিধিনিষেধ অনেক সময় কাজ করে না।

কখনো কখনো কৃত্রিম বুদ্ধিমত্তা এমন তথ্য তৈরি করে, যা আপাত বিশ্বাসযোগ্য মনে হয়। কিন্তু  তা অপ্রাসঙ্গিক, অর্থহীন বা সম্পূর্ণ মিথ্যা। এআইয়ের এই অদ্ভুত আচরণকে হ্যালুসিনেশন বা বিভ্রম বলা হয়। অনেকে আবার চ্যাটবটে এমন নিমগ্ন হয়ে পড়েছেন, তারা এ সফটওয়্যারকে সংবেদনশীল বলে মনে করে। তাঁরা মনে করেন, এটি চিন্তা করতে পারে। এর অনুভূতি আছে। এটি মানুষের নিয়ন্ত্রণের বাইরে আচরণ করতে পারে। তবে বিশেষজ্ঞরা বলছেন, সফটওয়্যার এখনো সংবেদনশীল নয়। তবে এটি এমন নিখুঁতভাবে কথা বলতে পারে যে একে জীবন্ত বলে ভুল হতে পারে।

কৃত্রিম বুদ্ধিমত্তা ঘিরে আরেকটি দুশ্চিন্তার নাম হচ্ছে ডিপফেক। এটি এমনভাবে ছবি, ভিডিও বা অডিও তৈরি করে যা অবিকল বাস্তব মনে হয়। এই প্রযুক্তি ব্যবহার করে তৈরি ছবি বা ভিডিও বিভ্রান্তি ছড়ানো বা ক্ষতিকর কাজে ব্যবহার করা হতে পারে। এআই নির্মাতারা তাদের মডেলগুলোকে রেড টিমিং নামের বিশেষ মডেল ব্যবহার করে এর ত্রুটিগুলো সারানোর কাজ করে থাকেন। এ পদ্ধতিকে বলা হয় এআইকে পোষ মানানোর পদ্ধতি। তবে এ প্রযুক্তিকে যতোই পোষ মানানোর প্রচেষ্টা চালানো হোক, উদ্ভাবনী শক্তি ও সৃজনশীলতা নিয়ে উদ্বেগ থেকেই যাচ্ছে।

এরই প্রেক্ষিতে পক্ষপাতদুষ্ট খবর ও ভুল তথ্য প্রতিরোধে চিঠিটিতে কৃত্রিম বুদ্ধিমত্তা কোম্পানিগুলোকে নির্দিষ্ট পদক্ষেপ নিতে বলা হয়েছে। অপরদিকে কৃত্রিম বুদ্ধিমত্তার ভুয়া ছবি তৈরির ক্ষমতা নিয়ে আলোকচিত্রীরা চিন্তিত। 

জেনারেটিভ এআইয়ের জনপ্রিয়তা নতুন নতুন সম্ভাবনা যেমন সৃষ্টি করেছে, তেমনি এ থেকে ক্ষতি হতে পারে এমন কিছু উদ্বেগও রয়েছে। 

সাম্প্রতিক দেশকাল ইউটিউব চ্যানেল সাবস্ক্রাইব করুন

মন্তব্য করুন

Epaper

সাপ্তাহিক সাম্প্রতিক দেশকাল ই-পেপার পড়তে ক্লিক করুন

Logo

ঠিকানা: ১০/২২ ইকবাল রোড, ব্লক এ, মোহাম্মদপুর, ঢাকা-১২০৭

© 2024 Shampratik Deshkal All Rights Reserved. Design & Developed By Root Soft Bangladesh

// //