দীর্ঘদিন ধরে, আইটি বিশেষজ্ঞরা বিশ্বজুড়ে কোনও যত্ন ছাড়াই কাজ করেছেন। তারা সফটওয়্যারটি সুচারুভাবে তৈরি, তৈরি এবং প্রয়োগ করেছেন। তারপর বিচ্ছিন্নতার যুগ এসেছিল এবং হঠাৎ করেই তারা বিরক্ত হয়ে পড়েছিল (অবশ্যই, এটি প্রকৃত ঘটনাগুলির উপর একটি কৌতুকপূর্ণ ধারণা)। আইটি লোকেরা এমন কিছু তৈরি করতে চেয়েছিল যা ঘরে বসে তাদের কাজ পরিচালনা করতে পারে: নিয়মিত প্রশ্নের উত্তর দিতে, দুর্দান্ত অবতার তৈরি করতে এবং কয়েক মিনিটের মধ্যে বিপুল পরিমাণে ডেটা বিশ্লেষণ করতে। তারা একটি দুর্দান্ত জায়গায় ভ্রমণের স্বপ্ন দেখেছিল, এবং তাই, আপনি অনুমান করতে পারেন, তারা এআইতে বিপ্লব এনেছে।
AI এখন কাজ করছে, উত্তর প্রদান করছে এবং জীবন উন্নত করছে। দক্ষ সহকারী যতই হোক না কেন, AI তখনই সত্যিকার অর্থে কার্যকর যখন সঠিক প্রেক্ষাপটে ব্যবহার করা হয়।
আমরা ছবি এবং ভিডিও তৈরি থেকে শুরু করে স্টক মার্কেট পূর্বাভাস এবং ক্রিপ্টোকারেন্সি বিশ্লেষণ পর্যন্ত AI অ্যাপ্লিকেশনগুলিতে দ্রুত অগ্রগতি প্রত্যক্ষ করছি। তবুও, AI এমন তথ্য দিতে পারে যা আমরা জিজ্ঞাসা করি না বা স্পষ্টতই মিথ্যা উত্তর প্রদান করতে পারে। এর আচরণ অনেকটা গৃহপালিত বিড়ালের মতো - আপনি জানেন, যে ধরণের বিড়াল চুপচাপ বসে থাকে এবং তারপর হঠাৎ আপনার উপর ঝাঁপিয়ে পড়ে?
আমাদের বিড়ালরা, সেইসাথে AI, অপ্রত্যাশিত হতে পছন্দ করে:
- তুমি তাদের একই খাবার (অথবা তথ্য) দাও — কখনও কখনও তারা খায়, কখনও কখনও তারা তা উপেক্ষা করে।
- তুমি তাদের সাড়া দেওয়ার প্রশিক্ষণ দাও, কিন্তু তুমি যখন তাদের ডাকো তখনই তারা মাঝে মাঝে সাড়া দেয়।
- বিড়ালটি যত বড় এবং হিংস্র হবে অথবা এআই মডেলটি যত বড় হবে, তার আচরণ সম্পর্কে ভবিষ্যদ্বাণী করা তত কঠিন হবে।
- সকালে, বিড়ালরা শান্ত থাকতে পারে; সন্ধ্যার মধ্যে, তারা অতিসক্রিয় হয়ে ওঠে (ঠিক গতিশীল তথ্যের মতো)।
- বিড়াল বন্ধুত্বপূর্ণ (নিয়ন্ত্রণবাদী) হতে পারে কিন্তু সতর্কতা ছাড়াই আপনাকে আঁচড় দিতে পারে (স্টোকাস্টিক)।
তুমি হয়তো ভাবছো যে নিয়তিবাদ এবং স্টোকাস্টিসিটির অর্থ কী - আসুন জেনে নেওয়া যাক।
নিয়তিবাদ এবং স্টোকাস্টিসিটি
একটি ডিটারমিনিস্টিক সিস্টেম সবসময় একই ফলাফল দেয় যদি একই ইনপুট দেওয়া হয় — যদি আপনি একজন DevOps ইঞ্জিনিয়ার হন তাহলে অদক্ষতার কথা ভাবুন। একটি বাস্তব উদাহরণ হতে পারে আপনার বিড়ালটি প্রতিবার তার বাটিতে আপনি যে পরিমাণ খাবার রাখেন সেই পরিমাণ খাবার খায় — এটি ডিটারমিনিজম । কিন্তু যখন বিড়ালটি শুঁকে এবং কেবল অর্ধেক খায়, তখন এটি আর ডিটারমিনিস্টিক থাকে না।
একটি স্টোকাস্টিক প্রক্রিয়ায় এলোমেলোতার একটি উপাদান থাকে: একই ইনপুট সহ, ফলাফল পরিবর্তিত হতে পারে। উদাহরণস্বরূপ, একটি মেশিন লার্নিং মডেল প্রায়শই স্টোকাস্টিক অ্যালগরিদম ব্যবহার করে, যেমন স্টোকাস্টিক গ্রেডিয়েন্ট ডিসেন্ট (SGD) , যা সম্পূর্ণ ডেটাসেটের পরিবর্তে ডেটার এলোমেলো অংশ বাছাই করে মডেলটিকে প্রশিক্ষণ দেয়।
এই সংজ্ঞাগুলি সম্পূর্ণরূপে ব্যাখ্যা করে না যে কেন আমাদের AI কখনও কখনও বিভ্রান্ত হয় এবং বিশৃঙ্খলভাবে আচরণ করে। অন্যান্য অবদানকারী কারণগুলিও রয়েছে, যার মধ্যে নিম্নলিখিতগুলি অন্তর্ভুক্ত রয়েছে:
- নিয়তিবাদ
- স্টোকাস্টিসিটি
- রাউন্ডিং ত্রুটি এবং ভাসমান-বিন্দু পাটিগণিত
- মাল্টিথ্রেডিং এবং সমান্তরাল গণনা
- ক্রমাগত ডেটা আপডেট করা হচ্ছে
- বিশৃঙ্খলা এবং "প্রজাপতির প্রভাব"
আমরা যদি একটু ঘনিষ্ঠভাবে তাকাই, তাহলে আমরা অন্যান্য প্রক্রিয়া দেখতে পাব যা AI মডেলগুলির অপ্রত্যাশিত আচরণকে প্রভাবিত করে।
নিউরাল নেটওয়ার্কের এক ঝলক
আপনি সম্ভবত জানেন যে সকলেই যে AI ব্যবহার করেন তা বিভিন্ন নিউরাল নেটওয়ার্ক অ্যালগরিদমের উপর নির্ভর করে। এখানে কিছু ধরণের নিউরাল নেটওয়ার্কের কথা বলা হল:
- সম্পূর্ণ সংযুক্ত নিউরাল নেটওয়ার্ক (FCNN): একটি ক্লাসিক স্থাপত্য যেখানে প্রতিটি নিউরন পরবর্তী স্তরের প্রতিটি নিউরনের সাথে সংযুক্ত থাকে।
- কনভলিউশনাল নিউরাল নেটওয়ার্ক (CNN): এই নেটওয়ার্কগুলি কনভলিউশন বা ফিল্টার ব্যবহার করে যা প্রান্ত, টেক্সচার এবং আকারের মতো চিত্রের বৈশিষ্ট্যগুলিকে হাইলাইট করে।
- পুনরাবৃত্ত নিউরাল নেটওয়ার্ক (RNNs ): এই নেটওয়ার্কগুলিতে প্রতিক্রিয়া লুপ রয়েছে যা তাদের পূর্ববর্তী পদক্ষেপগুলি মনে রাখতে দেয় (যেমন, তারা ক্রমগুলি মনে রাখে)।
- দীর্ঘ স্বল্পমেয়াদী স্মৃতি (LSTM): গুরুত্বপূর্ণ তথ্য নির্বাচনীভাবে ভুলে যাওয়ার এবং মনে রাখার প্রক্রিয়া সহ RNN-এর একটি উন্নত সংস্করণ।
- ট্রান্সফরমার : টেক্সট প্রসেসিংয়ের জন্য সবচেয়ে শক্তিশালী ক্লাস। তারা মাল্টি-হেড অ্যাটেনশন ব্যবহার করে, যা তাদের একই সাথে পুরো প্রেক্ষাপট বিবেচনা করার সুযোগ দেয়।
- জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN): এগুলিতে দুটি নেটওয়ার্ক থাকে, যার একটি ডেটা তৈরি করে এবং অন্যটি এর মান মূল্যায়ন করে। তাদের প্রতিযোগিতা আরও ভালো ফলাফলের দিকে পরিচালিত করে।
- অটোএনকোডার : তথ্য সংকুচিত (এনকোড) করার জন্য এবং তারপর পুনর্গঠন (ডিকোড) করার জন্য ডিজাইন করা নেটওয়ার্ক।
- গ্রাফ নিউরাল নেটওয়ার্ক (GNN): তারা নিয়মিত ডেটার পরিবর্তে গ্রাফ (নোড এবং প্রান্ত) নিয়ে কাজ করে।
সবচেয়ে সাধারণ মডেল, চ্যাটজিপিটি, কেন প্রায়শই হ্যালুসিনেট করে তা বোঝার জন্য আমাদের সেই সমস্ত প্রেক্ষাপটের প্রয়োজন।
এআই হ্যালুসিনেশন কীভাবে ঘটে
ChatGPT ট্রান্সফরমার আর্কিটেকচারের উপর চলে, যা প্রথম ২০১৭ সালের "Attention Is All You Need" পত্রিকায় প্রবর্তিত হয়েছিল। এটিই সেই প্রক্রিয়া যা টেক্সট প্রক্রিয়াকরণে বিপ্লব এনেছে। ট্রান্সফরমারগুলি স্ব-মনোযোগ প্রক্রিয়ার উপর কাজ করে, যা তাদেরকে পুরানো পুনরাবৃত্ত নিউরাল নেটওয়ার্ক (LSTM এবং GRU) এর মতো নিকটতম শব্দগুলির পরিবর্তে বিশ্বব্যাপী প্রেক্ষাপট বিবেচনা করতে দেয়। মডেলটি GPT (জেনারেটিভ প্রি-ট্রেনড ট্রান্সফরমার) সিরিজের অন্তর্গত, যার অর্থ:
- প্রাক-প্রশিক্ষিত: এটি প্রাথমিকভাবে প্রচুর পরিমাণে পাঠ্য (বই, নিবন্ধ, ওয়েবসাইট এবং কোড) এর উপর প্রশিক্ষণ দেওয়া হয়েছিল।
- জেনারেটিভ: এর কাজ হল টেক্সট তৈরি করা, কেবল তথ্য শ্রেণীবদ্ধ করা বা বের করা নয়।
ChatGPT-এর উত্তরগুলি একটি কঠোর নিয়মের পরিবর্তে একটি স্টোকাস্টিক প্রক্রিয়ার ফলে তৈরি হয়। এটি পাঠ্য মুখস্থ বা পুনরুৎপাদন করে না বরং একটি সম্ভাব্য মডেল ব্যবহার করে প্রতিক্রিয়া তৈরি করে।
একটি সম্ভাব্য প্রক্রিয়া হিসেবে শব্দ ভবিষ্যদ্বাণী
যখন ChatGPT সাড়া দেয়, তখন এটি একক সঠিক শব্দ নির্বাচন করে না বরং একটি সম্ভাব্যতা বন্টন গণনা করে।
P(wi|w1, w2, ..., wi-1), যেখানে:
- "wi" — বাক্যের পরবর্তী শব্দ
w1, w2, ..., wi-1 — পূর্ববর্তী শব্দগুলি
- P(wi|w1, ..., wi-1) — পরবর্তী শব্দ "wi" হওয়ার সম্ভাবনা
উদাহরণস্বরূপ, যদি আপনি জিজ্ঞাসা করেন, "আজ কোন দিন?" ChatGPT-এর বিভিন্ন সম্ভাবনা থাকতে পারে:
- “সোমবার” — P=0.7
- "বুধবার" — P=0.2
- “৪২” — পি=০.০০০১
এটি বেশিরভাগ ক্ষেত্রেই সর্বোচ্চ সম্ভাব্যতা সম্পন্ন শব্দটি বেছে নেবে, কিন্তু প্রজন্মের তাপমাত্রার (একটি প্যারামিটার যা এলোমেলোতা নিয়ন্ত্রণ করে) কারণে, এটি কখনও কখনও প্রসঙ্গের উপর ভিত্তি করে কম সম্ভাব্য বিকল্প বেছে নিতে পারে।
প্রেক্ষাপটের প্রভাব এবং তথ্য ভুলে যাওয়া
ChatGPT একটি সীমিত প্রসঙ্গ উইন্ডোর সাথে কাজ করে, যার অর্থ এটি শুধুমাত্র শেষ NN টোকেনগুলি "মনে রাখে"। GPT-4 এর জন্য, প্রসঙ্গ উইন্ডোটি প্রায় 128k টোকেন (প্রায় 300 পৃষ্ঠার পাঠ্য)। যদি গুরুত্বপূর্ণ তথ্য এই প্রসঙ্গটির বাইরে থাকে, তাহলে এটি হতে পারে:
- বিবরণ ভুলে যান (প্রসঙ্গ ক্লিপিং প্রভাব)
- মেক-আপ তথ্য (স্টোকাস্টিক প্রক্রিয়া)
তবুও, ChatGPT প্রায়শই আপনার উত্তর নিশ্চিত কিনা জিজ্ঞাসা করার পরেও সংশোধন করতে পারে। তবে, ChatGPT প্রায়শই আপনার উত্তর নিশ্চিত কিনা জিজ্ঞাসা করলে সংশোধন করতে পারে।
AI মাঝে মাঝে নিজেকে সংশোধন করে, কিন্তু কেন?
যখন আপনি ChatGPT কে জিজ্ঞাসা করেন, "আপনি কি নিশ্চিত?" এটি একটি নতুন প্রেক্ষাপট ব্যবহার করে তার উত্তর পুনর্বিশ্লেষণ করে যেখানে সন্দেহ বিদ্যমান। এর ফলে:
- উত্তরের সম্ভাব্যতা পুনঃগণনা করা হচ্ছে।
- যদি থাকে তাহলে আরও যুক্তিসঙ্গত বিকল্প বেছে নেওয়া।
এই প্রক্রিয়াটি বেয়েসিয়ান সম্ভাব্যতা দ্বারা ব্যাখ্যা করা যেতে পারে।
P(A|B) = P(B|A)P(A) / P(B), যেখানে:
P(A|B) — আপনার পরবর্তী প্রশ্ন B বিবেচনা করলে, উত্তর A সঠিক হওয়ার সম্ভাবনা।
P(B|A) — ChatGPT প্রাথমিকভাবে সঠিক কিনা তা জিজ্ঞাসা করার সম্ভাবনা।
P(A) — ChatGPT-এর উত্তরের প্রাথমিক সম্ভাবনা।
P(B) — আপনি যে সামগ্রিক সম্ভাবনা জিজ্ঞাসা করবেন।
তোমার কাছে কি খুব বেশি তথ্য নেই? মস্তিষ্ক অতিরিক্ত গরম? কল্পনা করো যে কৃত্রিম বুদ্ধিমত্তাও প্রচুর পরিমাণে তথ্যের দ্বারা অভিভূত হয়ে পড়ে।
অতিরিক্ত ফিটিং এবং গোলমালের কারণে ত্রুটি
ChatGPT-এর প্রশিক্ষণে প্রচুর পরিমাণে টেক্সট ডেটা প্রবাহিত হয়, যার মধ্যে রয়েছে শব্দ বা পরস্পরবিরোধী তথ্য, যেমন:
- কিছু সূত্র বলে যে পৃথিবী গোলাকার, আবার কিছু সূত্র দাবি করে যে এটি সমতল।
- বিভিন্ন সম্ভাবনার সাথে কোন তথ্যটি সত্য তা AI সবসময় নির্ধারণ করতে পারে না।
এগুলো মডেল হ্যালুসিনেশনের উদাহরণ, যা ঘটে কারণ ChatGPT-এর ওজনগুলি কঠোর যুক্তির পরিবর্তে সম্ভাব্য শব্দ সংযোগের উপর প্রশিক্ষিত।
তলদেশের সরুরেখা
এখান থেকে আমরা যা শিখতে পারি তা এখানে। ChatGPT এর পর থেকে বিভ্রান্ত হয়:
সম্ভাব্যতার ভিত্তিতে ভবিষ্যদ্বাণী করে, নির্ধারকভাবে নয়।
সীমিত মেমোরি আছে (প্রসঙ্গ উইন্ডো)।
প্রশ্ন করা হলে সম্ভাব্যতা পুনঃগণনা করে।
শব্দ এবং দ্বন্দ্ব সহ প্রশিক্ষণের তথ্য রয়েছে।
এটা খুবই সোজা। আশা করি তুমি ক্লান্ত হয়ে পড়োনি। যদি হয়ে থাকে, তাহলে এটা একটা ভালো লক্ষণ কারণ এর অর্থ হলো তুমি সমালোচনামূলকভাবে চিন্তা করছো, যা আমাদের AI এর সাথে কাজ করার সময় করা উচিত।