ມັນແມ່ນຕົ້ນປີ 2025, ແລະພວກເຮົາອາດຈະໄດ້ເປັນພະຍານເຖິງຊ່ວງເວລາທີ່ກໍານົດໃຫມ່ສໍາລັບ AI ດັ່ງທີ່ພວກເຮົາໄດ້ຮູ້ຈັກມັນໃນສອງສາມປີຜ່ານມາ. Canon ຂອງ "GPUs ຫຼາຍແມ່ນສິ່ງທີ່ທ່ານຕ້ອງການ" ກໍາລັງຈະປ່ຽນແປງບໍ?
ເຫດການທີ່ຜິດປົກກະຕິ. ຫນ້າທໍາອິດ, ໂຄງການ Stargate . ບໍລິສັດຮ່ວມທຶນທີ່ສ້າງຂຶ້ນໂດຍ OpenAI, SoftBank, Oracle, ແລະບໍລິສັດລົງທຶນ MGX ມີຈຸດປະສົງທີ່ຈະລົງທຶນເຖິງ 500 ຕື້ໂດລາສະຫະລັດໃນໂຄງລ່າງພື້ນຖານ AI ໃນສະຫະລັດພາຍໃນປີ 2029.
Arm, Microsoft, Nvidia, Oracle, ແລະ OpenAI ແມ່ນຄູ່ຮ່ວມງານດ້ານເຕັກໂນໂລຢີເບື້ອງຕົ້ນທີ່ສໍາຄັນໃນສິ່ງທີ່ຖືກຂະຫນານນາມວ່າ "ໂຄງການ Manhattan ຂອງສະຕະວັດທີ 21", ໂດຍໄດ້ຮັບການສະຫນັບສະຫນູນໂດຍກົງຈາກການບໍລິຫານຂອງສະຫະລັດ. ປະທານາທິບໍດີ Donald Trump ໄດ້ເອີ້ນມັນວ່າ "ໂຄງການພື້ນຖານໂຄງລ່າງ AI ທີ່ໃຫຍ່ທີ່ສຸດໃນປະຫວັດສາດ".
ບັນຊີລາຍຊື່ຂອງຄູ່ຮ່ວມງານດ້ານເຕັກໂນໂລຢີຊັ້ນນໍາຂອງສະຫະລັດໃນໂຄງການແລະການລົງທຶນອັນໃຫຍ່ຫຼວງໃນສິ່ງທີ່ເປັນການລິເລີ່ມຍຸດທະສາດສໍາລັບສະຫະລັດ - ໂຄງສ້າງພື້ນຖານ AI ເພື່ອຮັບປະກັນຄວາມເປັນຜູ້ນໍາພາໃນ AI - ແມ່ນສິ່ງທີ່ຂັບເຄື່ອນຂະຫນານກັບໂຄງການ Manhattan.
ຜູ້ຜະລິດຊິບ AI ທັງສອງຢູ່ໃນບັນຊີລາຍຊື່ - ແຂນແລະ Nvidia - ແມ່ນນໍາພາໂດຍ CEO ຂອງຕົ້ນກໍາເນີດໄຕ້ຫວັນ. ນັ້ນແມ່ນເປັນທີ່ໜ້າສັງເກດ, ໂດຍພິຈາລະນາເຖິງການພົວພັນທີ່ເຄັ່ງຕຶງຂອງໄຕ້ຫວັນກັບຈີນຢ່າງຕໍ່ເນື່ອງ, ແລະຄວາມຈິງທີ່ວ່າໂຄງການ Stargate ແມ່ນສາຍພັນຂອງ ນະໂຍບາຍຂອງສະຫະລັດເມື່ອບໍ່ດົນມານີ້ ເພື່ອແນໃສ່ປັບປຸງພື້ນຖານໂຄງລ່າງ AI ພາຍໃນປະເທດ ແລະຄວາມຮູ້ ທີ່ມີຄວາມສາມາດບົ່ມຊ້ອນໃນທົ່ວໂລກ , ຕົ້ນຕໍ. ຈີນ.
ຢ່າງໃດກໍຕາມ, ບໍ່ມີຫຍັງສໍາຄັນສໍາລັບຕະຫຼາດ, ເຊິ່ງ ເຮັດໃຫ້ຫຼັກຊັບຂອງ Nvidia ເພີ່ມຂຶ້ນອີກໃນສອງສາມປີຜ່ານມາໃນການປະກາດໂຄງການ Stargate . ແຕ່ນັ້ນແມ່ນທັງຫມົດກ່ອນທີ່ຈະປ່ອຍ DeepSeek R1.
DeepSeek R1 ແມ່ນຮູບແບບການໃຫ້ເຫດຜົນແບບເປີດເຜີຍໃຫມ່, ປ່ອຍອອກມາພຽງແຕ່ມື້ຫຼັງຈາກການປະກາດໂຄງການ Stargate. ຮູບແບບດັ່ງກ່າວໄດ້ຖືກພັດທະນາໂດຍບໍລິສັດ AI Startup DeepSeek ຂອງຈີນ, ເຊິ່ງອ້າງວ່າ R1 ກົງກັນຫຼືແມ່ນເກີນກວ່າ OpenAI's ChatGPT o1 ໃນຫຼາຍດັດຊະນີທີ່ສໍາຄັນແຕ່ດໍາເນີນການໃນສ່ວນຫນຶ່ງຂອງຄ່າໃຊ້ຈ່າຍ.
ສິ່ງທີ່ໂດດເດັ່ນກ່ຽວກັບ DeepSeek R1 ແມ່ນວ່າມັນຖືກພັດທະນາຢູ່ໃນປະເທດຈີນ, ເຖິງແມ່ນວ່າມີຂໍ້ຈໍາກັດທັງຫມົດກ່ຽວກັບຊິບ AI ຫມາຍຄວາມວ່າຈະຂັດຂວາງຄວາມສາມາດໃນການສ້າງຄວາມກ້າວຫນ້າຂອງ AI. ນັ້ນ ໝາຍ ຄວາມວ່າ ປັນຍາ ທຳ ມະດາ OpenAI- ແລະ US-centric ຂອງ "GPUs ຫຼາຍແມ່ນສິ່ງທີ່ທ່ານຕ້ອງການ" ໃນ AI ຈະຖືກປັບປຸງ ບໍ?
ຄວາມຈິງແມ່ນ, ເມື່ອພວກເຮົາຈັດການສົນທະນາກ່ຽວກັບຊິບ AI ກັບ Chris Kachris ສອງສາມມື້ກ່ອນຫນ້ານີ້, ທັງໂຄງການ Stargate ຫຼື DeepSeek R1 ບໍ່ໄດ້ເຂົ້າໄປໃນສາກ AI. ເຖິງແມ່ນວ່າພວກເຮົາບໍ່ໄດ້ຄາດຄະເນການພັດທະນາເຫຼົ່ານີ້ຢ່າງມີສະຕິ, ພວກເຮົາຮູ້ວ່າ ຊິບ AI ເປັນຫົວຂໍ້ທີ່ສົມຄວນໄດ້ຮັບຄວາມສົນໃຈ, ແລະ Kachris ແມ່ນພາຍໃນ.
ມັນໄດ້ກາຍເປັນປະເພນີບາງຢ່າງສໍາລັບ Orchestrate ທຸກໆສິ່ງເພື່ອວິເຄາະຊິບ AI ແລະເປັນເຈົ້າພາບຄວາມເຂົ້າໃຈຈາກຜູ້ຊ່ຽວຊານໃນພາກສະຫນາມ, ແລະການສົນທະນາກັບ Kachris ແມ່ນສິ່ງຫລ້າສຸດໃນປະເພນີນີ້.
Chris Kachris ເປັນຜູ້ກໍ່ຕັ້ງ ແລະ CEO ຂອງ InAccel . InAccel ທີ່ຊ່ວຍໃຫ້ບໍລິສັດເລັ່ງແອັບພລິເຄຊັນຂອງພວກເຂົາໂດຍໃຊ້ຕົວເລັ່ງຮາດແວໃນຄລາວງ່າຍຂຶ້ນກວ່າທີ່ເຄີຍ. ລາວຍັງເປັນນັກຄົ້ນຄວ້າທີ່ໄດ້ກ່າວມາຢ່າງກວ້າງຂວາງທີ່ມີປະສົບການຫຼາຍກວ່າ 20 ປີກ່ຽວກັບ FPGAs ແລະເຄື່ອງເລັ່ງຮາດແວສໍາລັບການຮຽນຮູ້ເຄື່ອງຈັກ, ການປຸງແຕ່ງເຄືອຂ່າຍແລະການປຸງແຕ່ງຂໍ້ມູນ.
ຫຼັງຈາກ InAccel ໄດ້ມາໂດຍ Intel ເມື່ອບໍ່ດົນມານີ້ , Kachris ໄດ້ກັບຄືນໄປຫາການຄົ້ນຄວ້າ, ປະຈຸບັນເຮັດວຽກເປັນຜູ້ຊ່ວຍສາດສະດາຈານໃນພາກວິຊາວິສະວະກໍາໄຟຟ້າແລະເອເລັກໂຕຣນິກຢູ່ມະຫາວິທະຍາໄລ West Attica.
ໃນເວລາທີ່ກໍານົດ scene ສໍາລັບການສົນທະນາກັບຂ່າວທີ່ທັນເວລານີ້, ຄໍາກ່າວເປີດຂອງ Kachris ແມ່ນວ່ານະວັດກໍາໃນຊິບ AI ເປັນ "ກິລາລາຄາແພງ", ຊຶ່ງເປັນເຫດຜົນທີ່ວ່າມັນສ່ວນໃຫຍ່ແມ່ນເກີດຂຶ້ນໃນອຸດສາຫະກໍາກົງກັນຂ້າມກັບນັກວິຊາການ. ຢ່າງໃດກໍຕາມ, ໃນເວລາດຽວກັນ, ລາວໄດ້ສັງເກດເຫັນວ່າຊັບພະຍາກອນທີ່ຈໍາເປັນບໍ່ພຽງແຕ່ມາຈາກເງິນ, ແຕ່ຍັງປະກອບມີພອນສະຫວັນແລະວິສະວະກໍາ.
ສໍາລັບ Kachris, ນະໂຍບາຍຂອງສະຫະລັດໄດ້ຢູ່ໃນເສັ້ນທາງທີ່ຖືກຕ້ອງໃນແງ່ຂອງຈຸດປະສົງຂອງພວກເຂົາເພື່ອສົ່ງຄືນຄວາມຊ່ຽວຊານແລະເຮັດໃຫ້ປະເທດມີຄວາມພຽງພໍຂອງຕົນເອງ. ໃນຖານະເປັນພົນລະເມືອງເອີລົບ, ທ່ານຍັງໄດ້ຮຽກຮ້ອງໃຫ້ EU ປະຕິບັດຂໍ້ລິເລີ່ມທີ່ຄ້າຍຄືກັນ, ຄຽງຄູ່ກັບສຽງຈໍານວນຫຼາຍ ຮຽກຮ້ອງໃຫ້ EU ຍົກສູງບົດບາດເກມ GPU ຂອງຕົນ . ຈະເບິ່ງວ່າຜົນສໍາເລັດຂອງ DeepSeek ບັນລຸໄດ້ແນວໃດ, ແນວໃດກໍ່ຕາມ, ມີສິ່ງໃດແດ່ທີ່ຈະສອນພວກເຮົາ?
ອີງຕາມບົດລາຍງານ " AI Generative AI ໃນປະເທດ BRICS+ ", ບໍ່ເຫມືອນກັບບັນດາປະເທດ BRICS ອື່ນໆ, ຈີນນໍາໃຊ້ທັງບັດກາຟິກຂອງຕ່າງປະເທດ (ຜ່ານ cloud ແລະໃນສູນຂໍ້ມູນຂອງຕົນເອງ) ແລະບັດທ້ອງຖິ່ນທີ່ເຮັດໂດຍບໍລິສັດຈີນ.
ໃນປັດຈຸບັນ, ມີຫຼາຍກວ່າ 10 ບໍລິສັດໃນປະເທດຈີນທີ່ກໍາລັງພັດທະນາບັດກາຟິກຂອງຕົນເອງ, ແລະຂະບວນການປ່ຽນເປັນ GPU ທ້ອງຖິ່ນຫຼັງຈາກການນໍາໃຊ້ NVIDIA ໄດ້ຖືກລາຍງານວ່າບໍ່ຫຍຸ້ງຍາກສໍາລັບບໍລິສັດຈີນ.
ມັນເບິ່ງຄືວ່າເພື່ອໃຫ້ການແຂ່ງຂັນໃນການແຂ່ງຂັນ AI, ປະເທດຕ່າງໆຈະຕ້ອງພິຈາລະນາຄືນທາງເລືອກຂອງພວກເຂົາ, ອາດຈະ ຢືມຫນ້າເວັບຕ່າງໆຈາກປື້ມຫຼິ້ນຂອງຈີນ . ທ່ານ Kachris ໄດ້ເຫັນດີວ່າ, ຈີນໄດ້ກ້າວໄປໜ້າຢ່າງກ້າວກະໂດດຂັ້ນ, ກ່ອນອື່ນໝົດໄດ້ຮຽນແບບແລະຈາກນັ້ນພັດທະນາເຕັກນິກນະວັດຕະກຳຂອງຕົນ.
“ພວກເຂົາສາມາດປະສົມແລະຈັບຄູ່. ພວກເຂົາສາມາດສົມທົບ GPUs ຮຸ່ນທີ່ແຕກຕ່າງກັນແລະຫນ່ວຍປະມວນຜົນອື່ນໆເພື່ອສ້າງສູນຂໍ້ມູນທີ່ມີປະສິດທິພາບຫຼືຟັງ. ນີ້ແມ່ນເປັນປະໂຫຍດຫຼາຍ, ໂດຍສະເພາະຖ້າທ່ານຄິດວ່າໃນອະດີດ, ທ່ານຕ້ອງຊື້ອຸປະກອນໃຫມ່ທຸກໆສາມຫຼືສີ່ປີບາງທີ.
ໃນປັດຈຸບັນການປະດິດສ້າງແມ່ນໄວຫຼາຍ, ເກືອບທຸກໆປີ, ທ່ານມີຊິບທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນແລະໂປເຊດເຊີທີ່ມີປະສິດທິພາບຫຼາຍຂຶ້ນ. ມັນສົມເຫດສົມຜົນທີ່ຈະຖິ້ມໂປເຊດເຊີທີ່ມີອາຍຸຫນຶ່ງຫຼືສອງປີບໍ? ດັ່ງນັ້ນແນ່ນອນ, ທ່ານຈໍາເປັນຕ້ອງຊອກຫາວິທີທີ່ຈະນໍາໃຊ້ຊັບພະຍາກອນ, ເຖິງແມ່ນວ່າມັນເປັນຊັບພະຍາກອນທີ່ແຕກຕ່າງກັນ. ນີ້ຈະເປັນການປະຫຍັດຄ່າໃຊ້ຈ່າຍຫຼາຍ, "Kachris ເວົ້າ.
ຄ່າໃຊ້ຈ່າຍໃນການຝຶກອົບຮົມຂອງ DeepSeek R1 ແມ່ນການໂຕ້ຖຽງທີ່ເຂັ້ມແຂງໃນການສະຫນັບສະຫນູນວິທີການນີ້. ນອກເຫນືອໄປຈາກການຝຶກອົບຮົມກ່ຽວກັບໂຄງສ້າງພື້ນຖານທີ່ແຕກຕ່າງກັນ, ວິທີການຂອງ DeepSeek ລວມມີການຫຼຸດຜ່ອນຄວາມແມ່ນຍໍາຂອງຕົວເລກ, ຄວາມສາມາດໃນການອ່ານຫຼາຍໂທເຄັນ, ແລະການນໍາໃຊ້ເຕັກນິກການປະສົມທີ່ສະຫລາດຂອງຜູ້ຊ່ຽວຊານ.
ຜົນໄດ້ຮັບແມ່ນການຫຼຸດຜ່ອນຄ່າໃຊ້ຈ່າຍໃນການຝຶກອົບຮົມຈາກ $ 100 ລ້ານເປັນປະມານ $ 5 ລ້ານແລະຫຼຸດຜ່ອນຄວາມຕ້ອງການຮາດແວຈາກ 100,000 GPUs ລົງເຫຼືອພຽງແຕ່ 2,000, ເຮັດໃຫ້ການພັດທະນາ AI ສາມາດເຂົ້າເຖິງ GPU ມາດຕະຖານຂອງເກມໄດ້. ມີຫຍັງຫຼາຍ, ເຖິງແມ່ນວ່າ DeepSeek ບໍ່ແມ່ນແຫຼ່ງເປີດ 100% - ໃດກໍ່ຕາມທີ່ຫມາຍຄວາມວ່າສໍາລັບ LLMs - ຂະບວນການຂອງມັນສາມາດຖືກຈໍາລອງ.
AI Chips ແລະຮູບແບບ AI ແຫຼ່ງເປີດແມ່ນສ່ວນຫນຶ່ງຂອງການຝຶກອົບຮົມ AI Pragmatic ທີ່ສົມບູນແບບ.
ທິດສະດີ ແລະຫ້ອງທົດລອງດ້ວຍມື. Retreat ລວມທັງຫມົດ. ກຸ່ມທີ່ນັ່ງຈຳກັດ.
ກົດທີ່ນີ້ເພື່ອລົງທະບຽນສໍາລັບການຝຶກອົບຮົມ AI Pragmatic
ປະຕິກິລິຍາທັນທີຕໍ່ກັບຂ່າວແມ່ນເປັນ ການຂາຍຮຸ້ນ , ໂດຍ ຫຼັກຊັບຂອງ Nvidia ຈະຫຼຸດລົງ 17% ຕາມຂ່າວ . ຕະຫຼາດໄດ້ເລີ່ມຕົ້ນການແກ້ໄຂຫຼັກສູດແລ້ວໃນເວລາຂຽນ, ໂດຍມີທັງການຫຼຸດລົງແລະແນວໂນ້ມທີ່ສູງຂຶ້ນເປັນສິ່ງທີ່ຄາດເດົາໄດ້.
ໃນອີກດ້ານຫນຶ່ງ, ສິ່ງທີ່ DeepSeek ສະແດງໃຫ້ເຫັນແມ່ນວ່າມີບ່ອນຫວ່າງຫຼາຍສໍາລັບການເພີ່ມປະສິດທິພາບໃນການຝຶກອົບຮົມແບບຈໍາລອງ AI ທີ່ມີປະສິດຕິພາບສູງສຸດ, ທໍາລາຍສະຕິປັນຍາແບບດັ້ງເດີມຢ່າງຈິງຈັງ. ໃນທາງກົງກັນຂ້າມ, ນັ້ນບໍ່ໄດ້ຫມາຍຄວາມວ່າ Nvidia ຍັງບໍ່ເປັນຜູ້ນໍາ , ແລະ ພວກເຮົາສາມາດຄາດຫວັງວ່າຈະເຫັນຄວາມຂັດແຍ້ງຂອງ Jevon ໃນການປະຕິບັດອີກເທື່ອຫນຶ່ງ .
Nvidia ຮັກສາຈັງຫວະຂອງ ນະວັດຕະກໍາໃນປີ 2024 , ປະກາດແລະຕໍ່ມາສົ່ງສະຖາປັດຕະຍະກໍາ Blackwell ຫລ້າສຸດຂອງຕົນ, ຂະຫຍາຍລະບົບນິເວດຂອງຕົນແລະຕີຈຸດສໍາຄັນທາງດ້ານການເງິນແລະທຸລະກິດຫຼາຍ. Kachris ເນັ້ນຫນັກວ່າ Nvidia ບໍ່ພຽງແຕ່ຂາຍຊິບອີກຕໍ່ໄປ, ແຕ່ພວກເຂົາໄດ້ກ້າວໄປສູ່ການເຊື່ອມໂຍງແບບຕັ້ງຂອງ ເຕັກໂນໂລຢີ NVLink ຂອງພວກເຂົາກັບຊິບຂອງພວກເຂົາໃນ ເວທີ DGX .
ແຕ່ Nvidia GPUs ບໍ່ແມ່ນເກມດຽວໃນຕົວເມືອງ. AMD ໃນສ່ວນຂອງມັນໄດ້ປະກາດຕົວເລັ່ງ AI ໃໝ່, Instinct MI325X . ດັ່ງທີ່ Kachris ສັງເກດເຫັນ, ຊຸດ MI300 ແມ່ນມີອໍານາດຫຼາຍ, ມີຫົວຫນ່ວຍພິເສດເພື່ອເລັ່ງການຫັນປ່ຽນ - ເປັນສະຖາປັດຕະຍະກໍາທີ່ສໍາຄັນສໍາລັບຕົວແບບພາສາຂະຫນາດໃຫຍ່. ການຂະຫຍາຍຕົວຂອງ AMD ໄດ້ຖືກຂັບເຄື່ອນໂດຍສູນຂໍ້ມູນແລະຜະລິດຕະພັນ AI .
ສ່ວນໃຫຍ່ຂອງປະຊາຊົນແລະອົງການຈັດຕັ້ງຈະເປັນຜູ້ໃຊ້ AI, ບໍ່ແມ່ນຜູ້ສ້າງ AI. ສໍາລັບພວກເຂົາ, ການນໍາໃຊ້ຫຼືແມ້ກະທັ້ງການສ້າງຄໍາຮ້ອງສະຫມັກ AI ບໍ່ແມ່ນເລື່ອງຂອງການຝຶກອົບຮົມຕົວແບບຂອງຕົນເອງ, ແຕ່ແທນທີ່ຈະໃຊ້ຫຼືປັບຕົວແບບທີ່ໄດ້ຝຶກອົບຮົມກ່ອນ.
Kachris ຍັງໄດ້ຮຽກຮ້ອງຄວາມກ້າວຫນ້າຂອງ Intel ກັບ Gaudi. ເຖິງວ່າຈະມີຄວາມສາມາດທີ່ມີປະສິດທິພາບສູງຂອງ Gaudi 3, ຢ່າງໃດກໍຕາມ, Intel ເບິ່ງຄືວ່າຢູ່ ເບື້ອງຫຼັງໃນສ່ວນແບ່ງຕະຫຼາດ, ສ່ວນໃຫຍ່ແມ່ນຍ້ອນຊອບແວ . ໃນເວລາດຽວກັນ, Intel ກໍາລັງເຮັດການເຄື່ອນໄຫວທີ່ຈະຂາຍຫນ່ວຍງານ FPGA ຂອງຕົນ, Altera .
FPGAs, Kachris ຮັກສາ, ອາດຈະບໍ່ແມ່ນການແກ້ໄຂທີ່ມີປະສິດທິພາບທີ່ສຸດສໍາລັບການຝຶກອົບຮົມ AI, ແຕ່ພວກເຂົາມີຄວາມຫມາຍຫຼາຍສໍາລັບການສະຫຼຸບ, ແລະນີ້ແມ່ນບ່ອນທີ່ມີພື້ນທີ່ພຽງພໍສໍາລັບການແຂ່ງຂັນແລະການປະດິດສ້າງ. ມັນເປັນທີ່ຊັດເຈນ - ການສ້າງຊັ້ນຊອບແວເພື່ອເຮັດວຽກກັບ FPGAs - ທີ່ InAccel ກໍາລັງເຮັດວຽກຢູ່, ແລະສິ່ງທີ່ນໍາໄປສູ່ການຊື້ໂດຍ Intel.
ຕາມທໍາມະຊາດ, Kachris ເນັ້ນຫນັກເຖິງຄວາມສໍາຄັນຂອງຊັ້ນຊອບແວ. ໃນຕອນທ້າຍຂອງມື້, ເຖິງແມ່ນວ່າຊິບມີການປະຕິບັດທີ່ເຫນືອກວ່າ, ຖ້າມັນບໍ່ງ່າຍທີ່ຈະໃຊ້ສໍາລັບນັກພັດທະນາຜ່ານຊັ້ນຊອບແວ, ມັນຈະຂັດຂວາງການຮັບຮອງເອົາ. Nvidia ຮັກສາປະໂຫຍດທີ່ສໍາຄັນໃນຊັ້ນຊອບແວເນື່ອງຈາກ CUDA stack ຂອງມັນຢູ່ທົ່ວທຸກແຫ່ງ , ເຊິ່ງມັນສືບຕໍ່ລົງທຶນໃນ.
ສ່ວນທີ່ເຫຼືອຂອງອຸດສາຫະກໍາ, ນໍາພາໂດຍ Intel ໂດຍຜ່ານການລິເລີ່ມ UXL Foundation / OneAPI , ກໍາລັງພະຍາຍາມຕິດຕາມ. AMD ມີຊັ້ນຊອບແວຂອງຕົນເອງ - ROCm. ແຕ່ການຈັບໄດ້ບໍ່ແມ່ນຈະເກີດຂຶ້ນໃນຂ້າມຄືນ. ດັ່ງທີ່ Kachris ວາງໄວ້, ຊັ້ນຊອບແວຕ້ອງເປີດໃຊ້ງານໂດຍໃຊ້ຊັ້ນຮາດແວ ໂດຍບໍ່ຕ້ອງປ່ຽນລະຫັດເສັ້ນດຽວ.
Nvidia ກໍາລັງປັບປຸງການສົມມຸດຕິຖານແລະກົນລະຍຸດຊອບແວຂອງມັນເຊັ່ນກັນກັບກອບ NIM ທີ່ປ່ອຍອອກມາໃຫມ່ , ເຊິ່ງເບິ່ງຄືວ່າ ໄດ້ຮັບການຮັບຮອງເອົາບາງຢ່າງ . ການແຂ່ງຂັນຍັງ ໄດ້ສຸມໃສ່ການ inference . ມີຫຼາຍສິ່ງທ້າທາຍເຊັ່ນ: Groq , Tenstorrent , GraphCore , Cerebras ແລະ SambaNova , vying ສໍາລັບສິ້ນຂອງ pie ຕະຫຼາດ inference ໄດ້.
ໃນຂະນະທີ່ DeepSeek ເປັນການສະແດງທີ່ໂດດເດັ່ນຂອງຜົນປະໂຫຍດຂອງການເພີ່ມປະສິດທິພາບ, ມັນຍັງບໍ່ແມ່ນອັນດຽວ. Kachris ໄດ້ມີສ່ວນຮ່ວມໃນ ການສໍາຫຼວດທີ່ສົມບູນແບບທີ່ຜ່ານມາແລະການປຽບທຽບການເລັ່ງຮາດແວຂອງ LLMs , ມີຫຼາຍອັນທີ່ມຸ່ງໄປສູ່ການສະຫຼຸບ.
ວິທີຫນຶ່ງທີ່ຈະໄປກ່ຽວກັບມັນແມ່ນການເຮັດສິ່ງນີ້ຜ່ານ API ຜູ້ໃຫ້ບໍລິການ AI - ໂດຍທົ່ວໄປແລ້ວ OpenAI ຫຼື Anthropic. ສໍາລັບກໍລະນີການນໍາໃຊ້ທີ່ຊັບຊ້ອນຫຼາຍ, ແນວໃດກໍ່ຕາມ, ສໍາລັບເຫດຜົນທີ່ກ່ຽວຂ້ອງກັບຄວາມເປັນສ່ວນຕົວ, ການປະຕິບັດຕາມ, ປະໂຫຍດດ້ານການແຂ່ງຂັນ, ຄວາມຕ້ອງການຄໍາຮ້ອງສະຫມັກຫຼືຄ່າໃຊ້ຈ່າຍ, ຜູ້ໃຊ້ສຸດທ້າຍຈະຕ້ອງການທີ່ຈະນໍາໃຊ້ຕົວແບບ AI ໃນໂຄງສ້າງພື້ນຖານຂອງຕົນເອງ.
ນັ້ນອາດຈະລວມເຖິງສະພາບແວດລ້ອມທັງໝົດ, ຕັ້ງແຕ່ຢູ່ໃນສະຖານທີ່ ແລະຄລາວສ່ວນຕົວຈົນເຖິງຂອບ ແລະໂລຫະເປົ່າ. ໂດຍສະເພາະແມ່ນກັບ LLMs, ມີເຖິງແມ່ນວ່າທາງເລືອກທີ່ຈະດໍາເນີນການໃຫ້ເຂົາເຈົ້າຢູ່ໃນທ້ອງຖິ່ນໃນການປິດເຄື່ອງ shelf ໄດ້ . ພວກເຮົາໄດ້ຖາມ Kachris ບໍ່ວ່າລາວເຊື່ອວ່າການຈັດສົ່ງທ້ອງຖິ່ນ / ຂອບຂອງ LLMs ມີຄວາມຫມາຍ.
Kachris ສັງເກດເຫັນວ່າ inference ອາດຈະເຮັດວຽກກັບ "ຫຍໍ້", aka quantized versions of AI model. ການຄົ້ນຄວ້າສະແດງໃຫ້ເຫັນວ່າ ເຖິງແມ່ນວ່າສະບັບ 1-bit ຂອງຕົວແບບແມ່ນມີຄວາມເປັນໄປໄດ້ . Kachris ຊີ້ໃຫ້ເຫັນວ່າເຖິງແມ່ນວ່າມີສະຖາປັດຕະຍະກໍາຮາດແວທີ່ພິເສດ, ຈາກ GPUs ທີ່ມີຢູ່ຢ່າງກວ້າງຂວາງແລະ FPGAs ສະຫນອງການປະຕິບັດທີ່ດີທີ່ສຸດ, ດ້ວຍ FPGAs ມີປະສິດທິພາບພະລັງງານຫຼາຍ.
ເທົ່າທີ່ການພັດທະນາໃນອະນາຄົດໄປ, Kachris ໄດ້ເນັ້ນໃສ່ ຄອມພິວເຕີ້ໃນຫນ່ວຍຄວາມຈໍາ ເປັນພື້ນທີ່ທີ່ຈະຮັກສາຕາ. ແນວຄວາມຄິດຕົ້ນຕໍແມ່ນສາມາດສົມທົບການເກັບຮັກສາແລະຄອມພິວເຕີ້ຢູ່ໃນຫນ່ວຍດຽວກັນ, ດັ່ງນັ້ນການກໍາຈັດຄວາມຕ້ອງການການໂອນຂໍ້ມູນແລະນໍາໄປສູ່ການປະຕິບັດທີ່ດີກວ່າ. ນັ້ນແມ່ນການດົນໃຈໂດຍວິທີການເຄືອຂ່າຍ neural ຊີວະພາບເຮັດວຽກ, ແລະຖືກເອີ້ນວ່າຄອມພິວເຕີ້ neuromorphic.
ມີຫຼາຍຂົງເຂດຂອງການພັດທະນາທີ່ຫນ້າສັງເກດເຊັ່ນ: chiplets , chips ພິເສດທີ່ເຫມາະສົມກັບສະຖາປັດຕະຍະຫັນເປັນພະລັງງານ LLMs , ເຕັກໂນໂລຊີ photonic ແລະ ພາສາການຂຽນໂປລແກລມໃຫມ່ສໍາລັບ AI .
ໃນແງ່ຂອງຄວາມສົດໃສດ້ານໃນໄລຍະສັ້ນເຖິງກາງ, ແລະຄໍາຖາມທີ່ວ່າມີບ່ອນຫວ່າງສໍາລັບການປະດິດສ້າງໃນໂລກທີ່ຄອບຄອງ Nvidia, Kachris ເຊື່ອວ່າລະບົບຝັງຕົວແລະ Edge AI ເປັນຕົວແທນຂອງໂອກາດສໍາລັບຜູ້ທ້າທາຍ:
"ມີຄວາມຕ້ອງການທີ່ແຕກຕ່າງກັນແລະຂໍ້ກໍາຫນົດທີ່ແຕກຕ່າງກັນໃນໂດເມນຂອງ Edge AI. ຂ້າພະເຈົ້າຄິດວ່າມີພື້ນທີ່ສໍາລັບການປະດິດສ້າງໃນ Edge AI, ຕົວຢ່າງເຊັ່ນໃນຄໍາຮ້ອງສະຫມັກວິດີໂອສໍາລັບໂຮງຫມໍ, ຫຼືການຂັບລົດອັດຕະໂນມັດແລະການບິນ.
ຂ້າພະເຈົ້າຄິດວ່າມັນຈະເກີດຂຶ້ນ. ໃຫ້ເວົ້າກ່ຽວກັບ GPUs. ດັ່ງນັ້ນ NVIDIA ເປັນຜູ້ນໍາໃນ GPUs, ແຕ່ມີການຂາດ GPUs ສໍາລັບອຸປະກອນ wearable. ແລະພວກເຮົາໄດ້ເຫັນບໍລິສັດທີ່ຍິ່ງໃຫຍ່, Think Silicon , ກ້າວຂຶ້ນແລະພັດທະນາ GPU ທີ່ມີຄວາມຊ່ຽວຊານສໍາລັບແຖບທີ່ເຫມາະສົມຫຼື smartwatches, ແລະຫຼັງຈາກນັ້ນ ໄດ້ມາໂດຍ Applied Materials .
ນະວັດຕະກໍາຈະເກີດຂຶ້ນໃນຂົງເຂດທີ່ນ້ອຍເກີນໄປສໍາລັບບໍລິສັດເຊັ່ນ Nvidia ຫຼື Intel, ແຕ່ດີພຽງພໍສໍາລັບບໍລິສັດຂະຫນາດນ້ອຍທີ່ສາມາດສ້າງຜະລິດຕະພັນພິເສດໄດ້.
ເລື່ອງເລົ່າກ່ຽວກັບວິທີທີ່ເທັກໂນໂລຍີ, ຂໍ້ມູນ, AI ແລະສື່ໄຫຼເຂົ້າມາເຊິ່ງກັນແລະກັນເພື່ອສ້າງຊີວິດຂອງເຮົາ.
ການວິເຄາະ, ບົດຂຽນ, ການສໍາພາດແລະຂ່າວ. ຮູບແບບກາງຫາຍາວ, 1-3 ຄັ້ງຕໍ່ເດືອນ.