কৃত্রিম বুদ্ধিমত্তা একসময় হয়তো মানব প্রজাতির জন্যে হুমকি হয়ে উঠতে পারে। স্টিফেন হকিং থেকে শুরু করে ইলন মাস্ক- বিশ্বের শীর্ষ কয়েকজন বিজ্ঞানী কৃত্রিম বুদ্ধিমত্তা নিয়ে এমনটাই উদ্বেগ প্রকাশ করেছেন। যদিও নতুন একটি বইতে বলা হচ্ছে, রোবট আসলে নিজে থেকে সচেতন হয়ে উঠছে না বা তাদের মানুষ প্রভুর বিরুদ্ধে কোনো মনোভাব তৈরি করছে না, যেটি মানুষের জন্যে ভয়ের কারণ হতে পারে। কিন্তু এসব যন্ত্রের জন্যে নির্ধারিত কাজ সম্পন্ন করার ক্ষেত্রে এগুলো এতোটাই দক্ষ হয়ে উঠছে যে, হয়তো দুর্ঘটনাবশত বা অনিচ্ছাকৃতভাবে তাদের ভুল কোনো কাজে লাগানোর মাধ্যমেই আমাদের অস্তিত্ব বিলীন হয়ে যেতে পারে।
‘হিউম্যান কম্প্যাটিবল: এআই এন্ড দি প্রবলেম অব কন্ট্রোল’ নামের বইটি লিখেছেন ক্যালিফোর্নিয়া বিশ্ববিদ্যালয়ের অধ্যাপক স্টুর্ট রাসেল, যিনি আধুনিক যন্ত্র সক্ষমতা প্রযুক্তির ব্যাপারে একজন বিশেষজ্ঞ। তিনি বলেছেন, হলিউডের সিনেমায় দেখানো হয় যে, যন্ত্রগুলো নিজে থেকেই সচেতন হয়ে উঠছে এবং তারপরে তারা মানুষকে ঘৃণা করতে শুরু করে আর সবাইকে মেরে ফেলতে চায়। কিন্তু রোবটের কোনো মানবিক অনুভূতি থাকে না। সুতরাং সেটা একেবারেই অহেতুক একটা বিষয়; যা নিয়ে উদ্বেগের কোনো কারণ নেই। এখানে আসলে খারাপ মনোভাবের কোনো ব্যাপার নেই। বরং তাদের দক্ষতার ক্ষমতা নিয়ে উদ্বিগ্ন হওয়া উচিত।
এক সাক্ষাৎকারে তিনি হুমকির একটি কল্পিত উদাহরণ তুলে ধরেন, যা কৃত্রিম বুদ্ধিমত্তার কারণে তৈরি হতে পারে বলে মনে করেন। কল্পনা করুন যে, আমাদের একটি শক্তিশালী কৃত্রিম বুদ্ধিমত্তা ব্যবস্থা আছে, যেটি বিশ্বের জলবায়ু নিয়ন্ত্রণ করতে পারে এবং সেটি ব্যবহার করে আমরা প্রাক-শিল্প পর্যায়ের কার্বন ডাই-অক্সাইড মাত্রার আবহাওয়ায় ফিরে যেতে চাই।
অধ্যাপক রাসেল বলেন, তখন সেটি ঠিক করল যে, এটা করার সবচেয়ে সহজ উপায় হচ্ছে পৃথিবী থেকে সব মানুষকে সরিয়ে ফেলা, কারণ পৃথিবীতে কার্বন ডাই-অক্সাইড নিঃসরণের দিক থেকে মানুষই সবচেয়ে এগিয়ে রয়েছে।
আপনি হয়তো বলতে চাইবেন, তুমি যা চাও সব কিছুই করতে পারবে, শুধুমাত্র মানুষের ক্ষতি করতে পারবে না। তখন ওই সিস্টেম কী করবে? এটি তখন আমাদের সন্তান কম নেয়ার ব্যাপারে প্রভাবিত করবে, যতক্ষণ না পৃথিবী থেকে মানুষ শেষ হয়ে যায়।
এই উদাহরণের মাধ্যমে কৃত্রিম বুদ্ধিমত্তা ব্যবহারের বিপদের সেইসব দিক তুলে ধরা হয়েছে, যা মানুষ খুব চিন্তাভাবনা করে নির্দেশ না দিলে বিপর্যয় ঘটে যেতে পারে।
অতি বুদ্ধি
যুক্তরাজ্যের ক্যামব্রিজ বিশ্ববিদ্যালয়ের সেন্টার ফর দি স্টাডি অফ এক্সিসটেনশিয়াল রিস্কের তথ্য অনুসারে, বর্তমানে কৃত্রিম বুদ্ধিমত্তা পদ্ধতিগুলো অ্যাপ্লিকেশন সীমাবদ্ধ, যেগুলোর নকশা করা হয়েছে সুনির্দিষ্ট কোনো সমস্যার সমাধান করার জন্যে। এই খাতের একটি মাইলফলক মুহূর্ত আসে ১৯৯৭ সালে, যখন কম্পিউটার ডিপ ব্লু দাবায় তৎকালীন বিশ্ব চ্যাম্পিয়ন গ্যারি কাসপারভকে ছয়টি খেলার একটি ম্যাচে হারিয়ে দেয়। তা সত্ত্বেও ডিপ ব্লুকে মানুষ বিশেষভাবে নকশা করেছিল দাবা খেলার জন্যে।
কিন্তু পরবর্তীতে আবিষ্কৃত কৃত্রিম বুদ্ধিমত্তার ক্ষেত্রে আর সে কথা বলা যাবে না। উদাহরণ হিসাবে বলা যায়, আলফাগো জিরো সফটওয়্যার তিনদিন ধরে নিজের বিরুদ্ধেই ‘গো’ (একটি বোর্ড গেম) খেলার পরে দক্ষতার দিক থেকে সুপার-হিউম্যান পর্যায়ে পৌঁছে গেছে।
এক্সিসটেনশিয়াল রিস্ক সেন্টার বলছে, কৃত্রিম বুদ্ধিমত্তার এই পদ্ধতি যতই শক্তিশালী হয়ে উঠবে, ততই এটি অতি বুদ্ধির অধিকারী হয়ে উঠবে। এটি হয়তো বেশিরভাগ ক্ষেত্রেই মানুষের সক্ষমতাকেও ছাড়িয়ে যাবে।
আর এ কারণেই অধ্যাপক রাসেল বলছেন, মানুষের উচিত রোবট বা যন্ত্রের নিয়ন্ত্রণ নিজেদের হাতে রাখা। তিনি বলেছেন, কৃত্রিম বুদ্ধিমত্তা যন্ত্রকে আরো বেশি সুনির্দিষ্ট উদ্দেশ্য বা কাজ ঠিক করে দেয়া এই সমস্যার সমাধান নয়। কারণ মানুষ নিজেরাই ঠিকমতো জানে না যে, এসব উদ্দেশ্য আসলে কী?
তিনি আরো বলেন, আমরা জানি না যে, কোনো কিছু না ঘটা পর্যন্ত আসলে আমরা কোনো কিছু পছন্দ করতে পারি না। যে কারণে আমরা কৃত্রিম বুদ্ধিমত্তা তৈরি করেছি, তার মূল ভিত্তিই আমাদের বদলে ফেলা উচিত।
তার মতে, রোবটকে নির্দিষ্ট উদ্দেশ্য ঠিক করে দেয়া এবং সেটি থেকে কৃত্রিম বুদ্ধিমত্তার শিক্ষা নেয়ার মতো ধারণা থেকে সরে আসা উচিত। বরং সিস্টেমটা এমন হওয়া উচিত যেন সেটি জানতে না পারে যে, আসলে সে কী উদ্দেশ্যে কাজ করছে।
যখন আপনি এভাবে সিস্টেমটি পরিচালনা করবেন, তখন সেটি আসলে মানুষের থেকে পিছিয়ে থাকবে। তারা কোনো কিছু করার আগে প্রশ্ন করতে শুরু করবে, কারণ যন্ত্র তখন আর নিশ্চিত হতে পারবে না যে, আপনি কী চাইছেন।
অধ্যাপক রাসেল বলছেন, বিশেষ করে তখন যন্ত্রগুলো নিজেদের গুটিয়ে রাখবে, কারণ সেগুলো এমন কিছু করতে চাইবে না, যা আপনি অপছন্দ করতে পারেন।
বাতির দৈত্য
অধ্যাপক রাসেল বলেন, আমরা যে পদ্ধতিতে কৃত্রিম বুদ্ধিমত্তা তৈরি করেছি সেটি অনেকটা যেন বাতির ভেতরে থাকা দৈত্যের মতো। আপনি বাতি ঘষবেন, তখন দৈত্য বেরিয়ে আসবে আর আপনি বলবেন যে, আমি চাই এটা করা হোক। আর তখন যদি কৃত্রিম বুদ্ধিমত্তার যথেষ্ট ক্ষমতা থাকে, আপনি যা করতে বলবেন, সেটা ঠিক তাই করবে। আপনি যা চাইছিলেন, তাই পাবেন।
এখন বাতির দৈত্যের সমস্যা হলো, সেখানে তৃতীয় ইচ্ছার ব্যাপারটি থেকে যাচ্ছে। যদি বলেন প্রথম দুটো ইচ্ছা বাতিল করে আগের মতো করে দাও, কারণ আমরা আমাদের লক্ষ্য ভালোভাবে ঠিক করতে পারছি না!
সুতরাং যদি একটি যন্ত্র এমন একটি উদ্দেশ্যে কাজ করতে শুরু করে, যা ঠিক নয়, তখন সেটি মানব সভ্যতার জন্যে শত্রু হয়ে উঠতে পারে। যে শত্রু আমাদের চেয়ে অনেক শক্তিশালী হবে। সূত্র : বিবিসি
(44)