paint-brush
Mixtral—Modely amin'ny fiteny maro nofanina miaraka amin'ny haben'ny toe-javatra misy marika 32k ny@textmodels
527 HENOINA
527 HENOINA

Mixtral—Modely amin'ny fiteny maro nofanina miaraka amin'ny haben'ny toe-javatra misy marika 32k

Lava loatra; Mamaky

Mixtral dia fifangaroan'ny manam-pahaizana manokana (SMoE) miaraka amin'ny lanja misokatra, nahazo alalana tamin'ny Apache 2.0. Mixtral dia mihoatra ny Llama 2 70B sy GPT-3.5 amin'ny ankamaroan'ny benchmark. Izy io dia maodely decoder tokana izay anaovan'ny sakana feedforward avy amin'ny vondrona masontsivana 8 miavaka.
featured image - Mixtral—Modely amin'ny fiteny maro nofanina miaraka amin'ny haben'ny toe-javatra misy marika 32k
Writings, Papers and Blogs on Text Models HackerNoon profile picture
0-item

Mpanoratra:

(1) Albert Q. Jiang;

2) Alexandre Sablayrolles;

(3) Antoine Roux;

(4) Arthur Mensch;

(5) Blanche Savary;

(6) Chris Bamford;

(7) Devendra Singh Chaplot;

(8) Diego de las Casas;

(9) Emma Bou Hanna;

(10) Florian Bressand;

(11) Gianna Lengyel;

(12) Guillaume Bour;

(13) Guillaume Lamp;

(14) Lélio Renard Lavaud;

(15) Lucile Saulnier;

(16) Marie-Anne Lachaux;

(17) Pierre Stock;

(18) Sandeep Subramanian;

(19) Sophia Yang;

(20) Szymon Antoniak;

(21) Teven Le Scao;

(22) Théophile Gervet;

(23) Thibaut Lavril;

(24) Thomas Wang;

(25) Timothée Lacroix;

(26) William El Sayed.

Latabatra Rohy

Abstract and 1. Fampidirana

2 Ny antsipirian'ny maritrano sy 2.1 Fifangaroan'ny manam-pahaizana manokana

3 Vokatra

3.1 Famaritana amin'ny fiteny maro, 3.2 Fampisehoana lavitr'ezaka, ary 3.3 Bias Benchmarks

4 Torolalana Fanamafisana tsara

5 Famakafakana lalana

6 Famaranana, fankasitrahana ary fanovozan-kevitra

Abstract

Izahay dia manolotra Mixtral 8x7B, maodely fiteny Sparse Mixture of Experts (SMoE). Ny Mixtral dia manana maritrano mitovy amin'ny Mistral 7B, miaraka amin'ny fahasamihafana fa ny sosona tsirairay dia ahitana bloc 8 feedforward (izany hoe manampahaizana). Ho an'ny mari-pamantarana tsirairay, isaky ny sosona, ny tamba-jotra router dia mifidy manam-pahaizana roa mba hikarakarana ny fanjakana ankehitriny sy hanambatra ny vokatra azony. Na dia tsy mahita manam-pahaizana roa fotsiny aza ny famantarana tsirairay, ny manam-pahaizana voafantina dia mety ho samy hafa isaky ny dingana. Vokatr'izany, ny marika tsirairay dia manana fidirana amin'ny mari-pamantarana 47B, fa mampiasa masontsivana mavitrika 13B mandritra ny inference. Ny Mixtral dia nampiofanina tamin'ny haben'ny toe-javatra misy marika 32k ary mihoatra na mifanandrify amin'ny Llama 2 70B sy GPT-3.5 amin'ny mari-pamantarana voatombana rehetra. Amin'ny ankapobeny, ny Mixtral dia mihoatra lavitra noho ny Llama 2 70B amin'ny matematika, famoronana kaody ary benchmark amin'ny fiteny maro. Izahay koa dia manome modely voafantina hanaraka ny torolàlana, Mixtral 8x7B - Instruct, izay mihoatra ny GPT-3.5 Turbo, Claude-2.1, Gemini Pro, ary Llama 2 70B - modely amin'ny chat amin'ny mari-pamantarana olombelona. Na ny modely fototra sy ny fampianarana dia navoaka teo ambanin'ny lisansa Apache 2.0.


Code : https://github.com/mistralai/mistral-src


Pejy tranonkala : https://mistral.ai/news/mixtral-of-experts/

1 Fampidirana

Ato amin'ity taratasy ity, dia manolotra Mixtral 8x7B, fifangaroan'ny manam-pahaizana manokana (SMoE) miaraka amin'ny lanja misokatra, nahazo alalana amin'ny Apache 2.0. Mixtral dia mihoatra ny Llama 2 70B sy GPT-3.5 amin'ny ankamaroan'ny benchmark. Satria tsy mampiasa afa-tsy ampahany amin'ny mari-pamantarana ho an'ny marika tsirairay izy, Mixtral dia mamela ny hafainganam-pandehan'ny fanatsoahan-kevitra haingana kokoa amin'ny haben'ny batch ambany, ary ny fidirana ambony amin'ny haben'ny batch lehibe.


Mixtral dia tamba-jotra fifangaroan'ny manam-pahaizana vitsivitsy. Izy io dia maodely decoder tokana izay isafidianan'ny sakana feedforward avy amina andiana vondrona masontsivana 8 miavaka. Isaky ny sosona, ho an'ny famantarana tsirairay, ny tambazotran'ny router dia misafidy roa amin'ireo vondrona ireo (ireo “manam-pahaizana”) mba hikarakarana ny famantarana sy hanambatra ny vokatra azony. Ity teknika ity dia mampitombo ny isan'ny mari-pamantarana amin'ny modely iray raha mifehy ny vidiny sy ny fahatarana, satria ny modely dia mampiasa ampahany kely amin'ny fitambaran'ny mari-pamantarana isaky ny famantarana.


Mixtral dia efa voaofana amin'ny angon-drakitra amin'ny fiteny maro mampiasa ny haben'ny contexte misy marika 32k. Izy io dia mifanandrify na mihoatra ny fahombiazan'ny Llama 2 70B sy GPT-3.5, amin'ny marika maromaro. Manokana,


Sary 1: Fifangaroan'ny Layer Expert. Ny vector input tsirairay dia omena ny 2 amin'ireo manam-pahaizana 8 amin'ny alàlan'ny router. Ny vokatra azo avy amin'ny sosona dia ny fitambaran'ny lanjan'ny vokatra avy amin'ireo manam-pahaizana roa voafantina. Ao amin'ny Mixtral, ny manam-pahaizana dia bloc mpanelanelana mahazatra toy ny ao amin'ny rafitra mpanova lavanila.


Mixtral dia mampiseho fahaiza-manao ambony amin'ny matematika, famoronana kaody ary asa izay mitaky fahatakarana amin'ny fiteny maro, mihoatra ny Llama 2 70B amin'ireo sehatra ireo. Ny fanandramana dia mampiseho fa ny Mixtral dia afaka maka am-pahombiazana ny vaovao avy amin'ny varavarankelin'ny contexte misy marika 32k, na inona na inona halavan'ny filaharana sy ny toerana misy ny vaovao ao amin'ny filaharana.


Izahay koa dia manolotra Mixtral 8x7B - Instruct, modely amin'ny chat voarindra tsara mba hanaraka ny torolàlana amin'ny alàlan'ny fanaraha-maso tsara sy ny Optimization Preference mivantana [25]. Ny zava-bitany dia mihoatra noho ny an'ny GPT-3.5 Turbo, Claude-2.1, Gemini Pro, ary Llama 2 70B - maodely chat amin'ny mari-pamantarana fanombanana olombelona. Mixtral - Ny Instruct koa dia mampiseho ny fitongilanana mihena, ary ny mombamomba ny fihetseham-po voalanjalanja kokoa amin'ny mari-pamantarana toy ny BBQ, ary BOLD.


Navoakanay ny Mixtral 8x7B sy Mixtral 8x7B – Mampianatra eo ambanin'ny lisansa Apache 2.01 , maimaim-poana amin'ny fampiasana akademika sy ara-barotra, miantoka ny fidirana malalaka sy ny mety ho an'ny fampiharana isan-karazany. Mba ahafahan'ny vondrom-piarahamonina mampandeha Mixtral miaraka amin'ny stack open-source tanteraka, dia nandefa fanovana ho an'ny tetikasa vLLM izahay, izay mampiditra ny kernels CUDA Megablocks ho an'ny inference mahomby. Skypilot koa dia mamela ny fametrahana ny teboka farany vLLM amin'ny tranga rehetra ao amin'ny rahona.


Ity taratasy ity dia misy amin'ny arxiv eo ambanin'ny lisansa CC 4.0.


L O A D I N G
. . . comments & more!

About Author

Writings, Papers and Blogs on Text Models HackerNoon profile picture
Writings, Papers and Blogs on Text Models@textmodels
We publish the best academic papers on rule-based techniques, LLMs, & the generation of text that resembles human text.

HANG TAGS

ITY ARTICLE ITY NO NARESAKA TAMIN'NY...