বিজ্ঞাপন বন্ধ করুন

স্যামসাং প্রমাণ করার চেষ্টা করছে যে একটি সক্ষম এআই মডেলকে বড় হতে হবে না এবং প্রশিক্ষণের জন্য লক্ষ লক্ষ ডলার খরচ করতে হবে না। একটি ছোট মডেল হাজার হাজার গুণ বড় এআই মডেলগুলির সাথে প্রতিযোগিতা করতে এমনকি তাদের পরাজিত করতেও সক্ষম।

কানাডার মন্ট্রিলে অবস্থিত স্যামসাং অ্যাডভান্সড ইনস্টিটিউট অফ টেকনোলজি (SAIT)-এর কৃত্রিম বুদ্ধিমত্তার একজন সিনিয়র গবেষক অ্যালেক্সিয়া জোলিকোউর-মার্টিনো সম্প্রতি "Less is More" শিরোনামে একটি নতুন গবেষণাপত্র প্রকাশ করেছেন। (mআরও আছে), যেখানে এটি ঘোষণা করেছে টিনy পুনরাবৃত্তি মডেল (TRM)। পূর্ণ শিরোনাম সহ নিবন্ধ কমই বেশি: ক্ষুদ্র নেটওয়ার্কের সাথে পুনরাবৃত্তিমূলক যুক্তি প্রকাশ করেছে যে টিআরএম সাত মিলিয়ন প্যারামিটার এবং দুটি স্তর সহ একটি কৃত্রিম বুদ্ধিমত্তা মডেল ব্যবহার করে। এটি প্রায় এক হাজার উদাহরণের উপর প্রশিক্ষিত ছিল এবং এখনও o3- এর মতো শীর্ষস্থানীয় প্রতিযোগী মডেলগুলিকে ছাড়িয়ে যায়।mini OpenAI থেকে এবং Gemini 2.5 প্রো।

সুডোকু, গোলকধাঁধা এবং ধাঁধার মতো কাঠামোগত, ভিজ্যুয়াল গ্রিড-ভিত্তিক সমস্যাগুলির ক্ষেত্রে ARC-AGI বেঞ্চমার্কে TRM অসাধারণভাবে ভালো পারফর্ম করেছে। এই গবেষণা AI বেঞ্চমার্কটি সাধারণত কৃত্রিম বুদ্ধিমত্তা মডেলগুলির জন্য খুব কঠিন বলে বিবেচিত হয়।

বিশেষ করে, ARC-AGI বেঞ্চমার্কে TRM নিম্নলিখিত ফলাফল অর্জন করেছে:

  • সুডোকু-এক্সট্রিমে ৮৭% এরও বেশি নির্ভুলতা
  • মেজ-হার্ড পাজলগুলিতে ৮৫% নির্ভুলতা
  • ARC-AGI-1-এ ৪৫% নির্ভুলতা
  • ARC-AGI-2-এ ৪৫% নির্ভুলতা

"জটিল কাজগুলি সমাধানের জন্য কোনও বৃহৎ কর্পোরেশনের লক্ষ লক্ষ ডলারের প্রশিক্ষণপ্রাপ্ত বৃহৎ মডেলের উপর নির্ভর করতে হবে এই ধারণাটি ভুল,” জোলিকোয়র-মার্টিনো সামাজিক যোগাযোগ মাধ্যম এক্স-এ বলেছেন। “বর্তমানে, এলএলএম ব্যবহারের প্রতি খুব বেশি মনোযোগ দেওয়া হচ্ছে (বৃহৎ ভাষা মডেল) নতুন দিকনির্দেশনা ডিজাইন এবং সম্প্রসারণের চেয়ে," সে যোগ করল.

এই AI মডেলের লক্ষ্য হল প্রমাণ করা যে সক্ষম AI-এর বিকাশ সম্ভব, এমনকি যদি GPU-তে বিশাল বিনিয়োগ এবং প্রক্রিয়াকরণ শক্তির অভাব থাকে যা এটিকে শক্তিশালী করে এমন বৃহত্তর, বহু-বিলিয়ন ডলারের প্যারামেট্রিক মডেলগুলিকে প্রশিক্ষণ দেওয়ার জন্য প্রয়োজনীয়। chatএলএলএম সহ জুতা।

আজকের সবচেয়ে পঠিত

.