দীর্ঘদিন ধরে, আইটি বিশেষজ্ঞরা বিশ্বজুড়ে কোনও যত্ন ছাড়াই কাজ করেছেন। তারা সফটওয়্যারটি সুচারুভাবে তৈরি, তৈরি এবং প্রয়োগ করেছেন। তারপর বিচ্ছিন্নতার যুগ এসেছিল এবং হঠাৎ করেই তারা বিরক্ত হয়ে পড়েছিল (অবশ্যই, এটি প্রকৃত ঘটনাগুলির উপর একটি কৌতুকপূর্ণ ধারণা)। আইটি লোকেরা এমন কিছু তৈরি করতে চেয়েছিল যা ঘরে বসে তাদের কাজ পরিচালনা করতে পারে: নিয়মিত প্রশ্নের উত্তর দিতে, দুর্দান্ত অবতার তৈরি করতে এবং কয়েক মিনিটের মধ্যে বিপুল পরিমাণে ডেটা বিশ্লেষণ করতে। তারা একটি দুর্দান্ত জায়গায় ভ্রমণের স্বপ্ন দেখেছিল, এবং তাই, আপনি অনুমান করতে পারেন, তারা এআইতে বিপ্লব এনেছে।
AI এখন কাজ করছে, উত্তর প্রদান করছে এবং জীবন উন্নত করছে। দক্ষ সহকারী যতই হোক না কেন, AI তখনই সত্যিকার অর্থে কার্যকর যখন সঠিক প্রেক্ষাপটে ব্যবহার করা হয়।
আমরা ছবি এবং ভিডিও তৈরি থেকে শুরু করে স্টক মার্কেট পূর্বাভাস এবং ক্রিপ্টোকারেন্সি বিশ্লেষণ পর্যন্ত AI অ্যাপ্লিকেশনগুলিতে দ্রুত অগ্রগতি প্রত্যক্ষ করছি। তবুও, AI এমন তথ্য দিতে পারে যা আমরা জিজ্ঞাসা করি না বা স্পষ্টতই মিথ্যা উত্তর প্রদান করতে পারে। এর আচরণ অনেকটা গৃহপালিত বিড়ালের মতো - আপনি জানেন, যে ধরণের বিড়াল চুপচাপ বসে থাকে এবং তারপর হঠাৎ আপনার উপর ঝাঁপিয়ে পড়ে?
আমাদের বিড়ালরা, সেইসাথে AI, অপ্রত্যাশিত হতে পছন্দ করে:
তুমি হয়তো ভাবছো যে নিয়তিবাদ এবং স্টোকাস্টিসিটির অর্থ কী - আসুন জেনে নেওয়া যাক।
একটি ডিটারমিনিস্টিক সিস্টেম সবসময় একই ফলাফল দেয় যদি একই ইনপুট দেওয়া হয় — যদি আপনি একজন DevOps ইঞ্জিনিয়ার হন তাহলে অদক্ষতার কথা ভাবুন। একটি বাস্তব উদাহরণ হতে পারে আপনার বিড়ালটি প্রতিবার তার বাটিতে আপনি যে পরিমাণ খাবার রাখেন সেই পরিমাণ খাবার খায় — এটি ডিটারমিনিজম । কিন্তু যখন বিড়ালটি শুঁকে এবং কেবল অর্ধেক খায়, তখন এটি আর ডিটারমিনিস্টিক থাকে না।
একটি স্টোকাস্টিক প্রক্রিয়ায় এলোমেলোতার একটি উপাদান থাকে: একই ইনপুট সহ, ফলাফল পরিবর্তিত হতে পারে। উদাহরণস্বরূপ, একটি মেশিন লার্নিং মডেল প্রায়শই স্টোকাস্টিক অ্যালগরিদম ব্যবহার করে, যেমন স্টোকাস্টিক গ্রেডিয়েন্ট ডিসেন্ট (SGD) , যা সম্পূর্ণ ডেটাসেটের পরিবর্তে ডেটার এলোমেলো অংশ বাছাই করে মডেলটিকে প্রশিক্ষণ দেয়।
এই সংজ্ঞাগুলি সম্পূর্ণরূপে ব্যাখ্যা করে না যে কেন আমাদের AI কখনও কখনও বিভ্রান্ত হয় এবং বিশৃঙ্খলভাবে আচরণ করে। অন্যান্য অবদানকারী কারণগুলিও রয়েছে, যার মধ্যে নিম্নলিখিতগুলি অন্তর্ভুক্ত রয়েছে:
আমরা যদি একটু ঘনিষ্ঠভাবে তাকাই, তাহলে আমরা অন্যান্য প্রক্রিয়া দেখতে পাব যা AI মডেলগুলির অপ্রত্যাশিত আচরণকে প্রভাবিত করে।
আপনি সম্ভবত জানেন যে সকলেই যে AI ব্যবহার করেন তা বিভিন্ন নিউরাল নেটওয়ার্ক অ্যালগরিদমের উপর নির্ভর করে। এখানে কিছু ধরণের নিউরাল নেটওয়ার্কের কথা বলা হল:
সবচেয়ে সাধারণ মডেল, চ্যাটজিপিটি, কেন প্রায়শই হ্যালুসিনেট করে তা বোঝার জন্য আমাদের সেই সমস্ত প্রেক্ষাপটের প্রয়োজন।
ChatGPT ট্রান্সফরমার আর্কিটেকচারের উপর চলে, যা প্রথম ২০১৭ সালের "Attention Is All You Need" পত্রিকায় প্রবর্তিত হয়েছিল। এটিই সেই প্রক্রিয়া যা টেক্সট প্রক্রিয়াকরণে বিপ্লব এনেছে। ট্রান্সফরমারগুলি স্ব-মনোযোগ প্রক্রিয়ার উপর কাজ করে, যা তাদেরকে পুরানো পুনরাবৃত্ত নিউরাল নেটওয়ার্ক (LSTM এবং GRU) এর মতো নিকটতম শব্দগুলির পরিবর্তে বিশ্বব্যাপী প্রেক্ষাপট বিবেচনা করতে দেয়। মডেলটি GPT (জেনারেটিভ প্রি-ট্রেনড ট্রান্সফরমার) সিরিজের অন্তর্গত, যার অর্থ:
ChatGPT-এর উত্তরগুলি একটি কঠোর নিয়মের পরিবর্তে একটি স্টোকাস্টিক প্রক্রিয়ার ফলে তৈরি হয়। এটি পাঠ্য মুখস্থ বা পুনরুৎপাদন করে না বরং একটি সম্ভাব্য মডেল ব্যবহার করে প্রতিক্রিয়া তৈরি করে।
যখন ChatGPT সাড়া দেয়, তখন এটি একক সঠিক শব্দ নির্বাচন করে না বরং একটি সম্ভাব্যতা বন্টন গণনা করে।
P(wi|w1, w2, ..., wi-1), যেখানে:
w1, w2, ..., wi-1 — পূর্ববর্তী শব্দগুলি
উদাহরণস্বরূপ, যদি আপনি জিজ্ঞাসা করেন, "আজ কোন দিন?" ChatGPT-এর বিভিন্ন সম্ভাবনা থাকতে পারে:
এটি বেশিরভাগ ক্ষেত্রেই সর্বোচ্চ সম্ভাব্যতা সম্পন্ন শব্দটি বেছে নেবে, কিন্তু প্রজন্মের তাপমাত্রার (একটি প্যারামিটার যা এলোমেলোতা নিয়ন্ত্রণ করে) কারণে, এটি কখনও কখনও প্রসঙ্গের উপর ভিত্তি করে কম সম্ভাব্য বিকল্প বেছে নিতে পারে।
ChatGPT একটি সীমিত প্রসঙ্গ উইন্ডোর সাথে কাজ করে, যার অর্থ এটি শুধুমাত্র শেষ NN টোকেনগুলি "মনে রাখে"। GPT-4 এর জন্য, প্রসঙ্গ উইন্ডোটি প্রায় 128k টোকেন (প্রায় 300 পৃষ্ঠার পাঠ্য)। যদি গুরুত্বপূর্ণ তথ্য এই প্রসঙ্গটির বাইরে থাকে, তাহলে এটি হতে পারে:
তবুও, ChatGPT প্রায়শই আপনার উত্তর নিশ্চিত কিনা জিজ্ঞাসা করার পরেও সংশোধন করতে পারে। তবে, ChatGPT প্রায়শই আপনার উত্তর নিশ্চিত কিনা জিজ্ঞাসা করলে সংশোধন করতে পারে।
যখন আপনি ChatGPT কে জিজ্ঞাসা করেন, "আপনি কি নিশ্চিত?" এটি একটি নতুন প্রেক্ষাপট ব্যবহার করে তার উত্তর পুনর্বিশ্লেষণ করে যেখানে সন্দেহ বিদ্যমান। এর ফলে:
এই প্রক্রিয়াটি বেয়েসিয়ান সম্ভাব্যতা দ্বারা ব্যাখ্যা করা যেতে পারে।
P(A|B) = P(B|A)P(A) / P(B), যেখানে:
P(A|B) — আপনার পরবর্তী প্রশ্ন B বিবেচনা করলে, উত্তর A সঠিক হওয়ার সম্ভাবনা।
P(B|A) — ChatGPT প্রাথমিকভাবে সঠিক কিনা তা জিজ্ঞাসা করার সম্ভাবনা।
P(A) — ChatGPT-এর উত্তরের প্রাথমিক সম্ভাবনা।
P(B) — আপনি যে সামগ্রিক সম্ভাবনা জিজ্ঞাসা করবেন।
তোমার কাছে কি খুব বেশি তথ্য নেই? মস্তিষ্ক অতিরিক্ত গরম? কল্পনা করো যে কৃত্রিম বুদ্ধিমত্তাও প্রচুর পরিমাণে তথ্যের দ্বারা অভিভূত হয়ে পড়ে।
ChatGPT-এর প্রশিক্ষণে প্রচুর পরিমাণে টেক্সট ডেটা প্রবাহিত হয়, যার মধ্যে রয়েছে শব্দ বা পরস্পরবিরোধী তথ্য, যেমন:
এগুলো মডেল হ্যালুসিনেশনের উদাহরণ, যা ঘটে কারণ ChatGPT-এর ওজনগুলি কঠোর যুক্তির পরিবর্তে সম্ভাব্য শব্দ সংযোগের উপর প্রশিক্ষিত।
এখান থেকে আমরা যা শিখতে পারি তা এখানে। ChatGPT এর পর থেকে বিভ্রান্ত হয়:
সম্ভাব্যতার ভিত্তিতে ভবিষ্যদ্বাণী করে, নির্ধারকভাবে নয়।
সীমিত মেমোরি আছে (প্রসঙ্গ উইন্ডো)।
প্রশ্ন করা হলে সম্ভাব্যতা পুনঃগণনা করে।
শব্দ এবং দ্বন্দ্ব সহ প্রশিক্ষণের তথ্য রয়েছে।
এটা খুবই সোজা। আশা করি তুমি ক্লান্ত হয়ে পড়োনি। যদি হয়ে থাকে, তাহলে এটা একটা ভালো লক্ষণ কারণ এর অর্থ হলো তুমি সমালোচনামূলকভাবে চিন্তা করছো, যা আমাদের AI এর সাথে কাজ করার সময় করা উচিত।