Kwa BMS, basi, viwanda, kebo ya ala.

Wakati Tamasha la Spring linakaribia, msisimko unaozunguka Deepseek unabaki kuwa na nguvu. Likizo ya hivi karibuni ilionyesha hali kubwa ya ushindani ndani ya tasnia ya teknolojia, na wengi wakijadili na kuchambua "samaki wa paka." Silicon Valley inakabiliwa na hali ya shida isiyo ya kawaida: Mawakili wa chanzo wazi wanatoa maoni yao tena, na hata OpenAI inachunguza tena ikiwa mkakati wake wa chanzo uliofungwa ulikuwa chaguo bora. Paradigm mpya ya gharama ya chini ya computational imesababisha athari ya mnyororo kati ya vikubwa vya chip kama Nvidia, na kusababisha kurekodi upotezaji wa thamani ya soko la siku moja katika historia ya soko la hisa la Amerika, wakati mashirika ya serikali yanachunguza kufuata kwa chips zinazotumiwa na Deepseek. Huku kukiwa na hakiki mchanganyiko wa Deepseek nje ya nchi, ndani, inakabiliwa na ukuaji wa ajabu. Baada ya uzinduzi wa mfano wa R1, programu inayohusika imeona kuongezeka kwa trafiki, ikionyesha kuwa ukuaji katika sekta za matumizi utasababisha mfumo wa ikolojia wa AI mbele. Jambo zuri ni kwamba Deepseek itapanua uwezekano wa matumizi, na kupendekeza kwamba kutegemea Chatgpt haitakuwa ghali katika siku zijazo. Mabadiliko haya yameonyeshwa katika shughuli za hivi karibuni za OpenAI, pamoja na utoaji wa mfano wa hoja inayoitwa O3-mini kwa watumiaji wa bure kujibu Deepseek R1, na pia visasisho vilivyofuata ambavyo vilifanya mnyororo wa mawazo wa O3-mini umma. Watumiaji wengi wa nje ya nchi walionyesha shukrani kwa Deepseek kwa maendeleo haya, ingawa mnyororo huu wa mawazo hutumika kama muhtasari.
Kwa matumaini, ni dhahiri kwamba Deepseek inaunganisha wachezaji wa nyumbani. Kwa umakini wake katika kupunguza gharama za mafunzo, watengenezaji wa chip wa juu, watoa huduma wa wingu wa kati, na wanaoanza wanajiunga kikamilifu mfumo wa ikolojia, na kuongeza ufanisi wa gharama kwa kutumia mfano wa DeepSeek. Kulingana na karatasi za Deepseek, mafunzo kamili ya mfano wa V3 yanahitaji masaa milioni 2.788 H800 GPU, na mchakato wa mafunzo ni thabiti sana. Usanifu wa MOE (Mchanganyiko wa Wataalam) ni muhimu kwa kupunguza gharama za mafunzo ya mapema na sababu ya kumi ikilinganishwa na Llama 3 na vigezo bilioni 405. Hivi sasa, V3 ndio mfano wa kwanza unaotambuliwa hadharani unaoonyesha sparsity kubwa kama hiyo katika MOE. Kwa kuongeza, MLA (umakini wa safu nyingi) inafanya kazi kwa usawa, haswa katika hoja za hoja. "Sparser MOE, kubwa ukubwa wa batch inahitajika wakati wa hoja ya kutumia kikamilifu nguvu ya computational, na saizi ya KVCache kuwa sababu muhimu ya kupunguza; MLA inapunguza sana saizi ya KVCache," alibaini mtafiti kutoka teknolojia ya Chuanjing katika uchambuzi wa ukaguzi wa teknolojia ya AI. Kwa jumla, mafanikio ya Deepseek yapo katika mchanganyiko wa teknolojia mbali mbali, sio moja tu. Viwanda vya ndani vinasifu uwezo wa uhandisi wa timu ya Deepseek, wakizingatia ubora wao katika mafunzo sambamba na uboreshaji wa waendeshaji, kufikia matokeo makubwa kwa kusafisha kila undani. Njia ya chanzo wazi ya Deepseek inaongeza zaidi maendeleo ya jumla ya mifano kubwa, na inatarajiwa kwamba ikiwa mifano kama hiyo itapanua kuwa picha, video, na zaidi, hii itachochea mahitaji katika tasnia yote.
Fursa za huduma za hoja za mtu wa tatu
Takwimu zinaonyesha kuwa tangu kuachiliwa kwake, Deepseek imeajiri watumiaji milioni 22.15 wanaofanya kazi kila siku (DAU) ndani ya siku 21 tu, kufikia asilimia 41.6 ya watumiaji wa Chatgpt na kuzidi watumiaji milioni 16.95 wa kila siku wa Doubao, na hivyo kuwa maombi yanayokua kwa kasi zaidi ulimwenguni, kuweka Duka la App App katika nchi 157/mkoa. Walakini, wakati watumiaji walitembea katika vikundi, watapeli wa cyber wamekuwa wakishambulia programu ya Deepseek bila huruma, na kusababisha shida kubwa kwenye seva zake. Wachambuzi wa tasnia wanaamini hii ni kwa sababu ya kadi za kupeleka Deepseek kwa mafunzo wakati wanakosa nguvu ya kutosha ya computational kwa hoja. Mapitio ya teknolojia ya ndani ya tasnia ya AI, "maswala ya seva ya mara kwa mara yanaweza kutatuliwa kwa urahisi kwa malipo ya ada au fedha kununua mashine zaidi; mwishowe, inategemea maamuzi ya Deepseek." Hii inawasilisha biashara katika kuzingatia teknolojia dhidi ya uzalishaji. Deepseek imetegemea sana kuongezeka kwa kiwango cha kujipatia riziki, baada ya kupokea ufadhili mdogo wa nje, na kusababisha shinikizo la chini la pesa na mazingira safi ya kiteknolojia. Hivi sasa, kwa kuzingatia shida zilizotajwa hapo juu, watumiaji wengine wanamsihi Deepseek kwenye media ya kijamii ili kuinua vizingiti vya utumiaji au kuanzisha huduma zilizolipwa ili kuongeza faraja ya watumiaji. Kwa kuongeza, watengenezaji wameanza kutumia API rasmi au API ya mtu wa tatu kwa utaftaji. Walakini, jukwaa la wazi la Deepseek lilitangaza hivi karibuni, "Rasilimali za sasa za seva ni chache, na recharges za huduma za API zimesimamishwa."
Bila shaka hii inafungua fursa zaidi kwa wachuuzi wa mtu wa tatu katika sekta ya miundombinu ya AI. Hivi karibuni, wakuu wengi wa wingu wa ndani na wa kimataifa wamezindua APIs za Model za Deepseek -wakubwa Microsoft na Amazon walikuwa kati ya wa kwanza kuungana mwishoni mwa Januari. Kiongozi wa ndani, Huawei Cloud, alifanya hatua ya kwanza, akitoa huduma za hoja za Deepseek R1 na V3 kwa kushirikiana na mtiririko wa msingi wa Silicon mnamo Februari 1. Ripoti kutoka kwa ukaguzi wa teknolojia ya AI zinaonyesha kuwa huduma za mtiririko wa Silicon zimeona kuongezeka kwa watumiaji, kwa ufanisi "wakianguka" jukwaa. Kampuni kubwa tatu za teknolojia-BAT (Baidu, Alibaba, Tencent) na Bytedance-pia zilitoa bei ya chini, ya muda mdogo kuanzia Februari 3, ukumbusho wa vita vya wauzaji wa wingu wa mwaka jana vilivyowekwa na uzinduzi wa mfano wa V2, ambapo Deepseek ilianza kuhesabiwa "Bei Mchinjaji." Vitendo vya kupendeza vya wachuuzi wa wingu vinaunganisha uhusiano wa mapema kati ya Microsoft Azure na OpenAI, ambapo mnamo 2019, Microsoft ilifanya uwekezaji mkubwa wa dola bilioni 1 katika OpenAI na kupata faida baada ya uzinduzi wa Chatgpt mnamo 2023. Hata hivyo, uhusiano huu wa karibu ulianza kuharibika baada ya Meta-Sourced Llama, kuruhusu wauzaji wengine nje ya Microsoft AZoft AZoft AZoft AZoft. Katika mfano huu, Deepseek haijazidi tu Chatgpt katika suala la joto la bidhaa lakini pia imeanzisha mifano ya chanzo-wazi kufuatia kutolewa kwa O1, sawa na msisimko unaozunguka uamsho wa Llama wa GPT-3.
Kwa kweli, watoa huduma wa wingu pia wanajiweka kama lango la trafiki kwa matumizi ya AI, ikimaanisha kuwa uhusiano wa kuzidi na watengenezaji hutafsiri kwa faida za kuzuia. Ripoti zinaonyesha kuwa Baidu Smart Cloud walikuwa na wateja zaidi ya 15,000 kutumia mfano wa Deepseek kupitia jukwaa la Qianfan kwenye siku ya uzinduzi wa mfano. Kwa kuongezea, kampuni kadhaa ndogo zinatoa suluhisho, pamoja na mtiririko wa msingi wa silicon, teknolojia ya Luchen, teknolojia ya Chuanjing, na watoa huduma mbali mbali wa AI ambao wamezindua msaada kwa mifano ya Deepseek. Mapitio ya Teknolojia ya AI yamejifunza kuwa fursa za sasa za uboreshaji wa kupelekwa kwa hali ya ndani ya Deepseek zipo katika maeneo mawili: moja inaboresha sifa za sparsity za mfano wa MOE kwa kutumia njia mchanganyiko wa kupeleka mfano wa paramu ya bilioni 671 ya ndani wakati wa kutumia mseto wa GPU/CPU. Kwa kuongeza, optimization ya MLA ni muhimu. Walakini, mifano mbili za Deepseek bado zinakabiliwa na changamoto kadhaa katika utaftaji wa kupelekwa. "Kwa sababu ya ukubwa wa mfano na vigezo vingi, optimization ni ngumu sana, haswa kwa kupelekwa kwa mahali ambapo kufikia usawa mzuri kati ya utendaji na gharama itakuwa changamoto," alisema mtafiti kutoka Teknolojia ya Chuanjing. Shida muhimu zaidi iko katika kushinda mipaka ya uwezo wa kumbukumbu. "Tunachukua njia ya kushirikiana ya nguvu ya kutumia kikamilifu CPU na rasilimali zingine za computational, tukiweka sehemu tu ambazo hazijashirikiwa za Sparse MOE matrix kwenye CPU/DRAM kwa usindikaji kwa kutumia waendeshaji wa CPU wa hali ya juu, wakati sehemu zenye mnene hukaa kwenye GPU," alielezea zaidi. Ripoti zinaonyesha kuwa mfumo wa wazi wa chanzo wa Chuanjing Ktransformers kimsingi huingiza mikakati na waendeshaji anuwai katika utekelezaji wa asili wa Transformers kupitia template, inaongeza kasi ya uelekezaji kwa kutumia njia kama Cudagraph. Deepseek imeunda fursa za kuanza hizi, kwani faida za ukuaji zinaonekana; Makampuni mengi yameripoti ukuaji wa wateja dhahiri baada ya kuzindua API ya Deepseek, ikipokea maswali kutoka kwa wateja wa zamani wanaotafuta utaftaji. Wa ndani ya tasnia wamebaini, "Hapo zamani, vikundi vya wateja vilivyoanzishwa mara nyingi vilikuwa vimefungwa katika huduma sanifu za kampuni kubwa, zilizofungwa sana na faida zao za gharama kutokana na kiwango. Walakini, baada ya kumaliza kupelekwa kwa Deepseek-R1/V3 kabla ya Tamasha la Spring, tulipokea maombi ya ushirikiano kutoka kwa wateja wetu." Hivi sasa, inaonekana kwamba Deepseek inafanya utendaji wa mfano wa uelekezaji unazidi kuwa muhimu, na kwa kupitishwa kwa mifano mikubwa, hii itaendelea kushawishi maendeleo katika tasnia ya AI infra kwa kiasi kikubwa. Ikiwa mfano wa kiwango cha kina cha kina unaweza kupelekwa ndani kwa gharama ya chini, ingesaidia sana serikali na juhudi za mabadiliko ya dijiti. Walakini, changamoto zinaendelea, kwani wateja wengine wanaweza kushikilia matarajio ya hali ya juu juu ya uwezo mkubwa wa mfano, na kuifanya iwe dhahiri kuwa utendaji wa kusawazisha na gharama inakuwa muhimu katika kupelekwa kwa vitendo.
Ili kutathmini ikiwa Deepseek ni bora kuliko Chatgpt, ni muhimu kuelewa tofauti zao muhimu, nguvu, na kesi za matumizi. Hapa kuna kulinganisha kamili:
Kipengele/kipengele | Deepseek | Chatgpt |
---|---|---|
Umiliki | Iliyotengenezwa na kampuni ya Wachina | Iliyotengenezwa na OpenAI |
Mfano wa chanzo | Chanzo-wazi | Wamiliki |
Gharama | Huru kutumia; Chaguzi za ufikiaji wa API za bei rahisi | Usajili au bei ya matumizi ya kila mtu |
Ubinafsishaji | Imeboreshwa sana, ikiruhusu watumiaji kupata na kujenga juu yake | Ubinafsishaji mdogo unapatikana |
Utendaji katika kazi maalum | Inazidi katika maeneo fulani kama uchambuzi wa data na kupatikana kwa habari | Kubadilika na utendaji mzuri katika uandishi wa ubunifu na kazi za mazungumzo |
Msaada wa Lugha | Kuzingatia kwa nguvu lugha ya Kichina na utamaduni | Msaada wa lugha pana lakini US-centric |
Gharama ya mafunzo | Gharama za chini za mafunzo, zilizoboreshwa kwa ufanisi | Gharama kubwa za mafunzo, zinahitaji rasilimali kubwa za computational |
Tofauti ya majibu | Inaweza kutoa majibu tofauti, ikiwezekana kusukumwa na muktadha wa jiografia | Majibu ya kawaida kulingana na data ya mafunzo |
Walengwa | Inayolenga watengenezaji na watafiti wanaotaka kubadilika | Inayolenga watumiaji wa jumla wanaotafuta uwezo wa kubadilika |
Tumia kesi | Ufanisi zaidi kwa kizazi cha msimbo na kazi za haraka | Inafaa kwa kutengeneza maandishi, kujibu maswali, na kujihusisha na mazungumzo |
Mtazamo muhimu juu ya "kuvuruga nvidia"
Kwa sasa, kando na Huawei, wazalishaji kadhaa wa chip wa ndani kama Threads za Moore, Muxi, Teknolojia ya Biran, na Tianxu Zhixin pia wanazoea mifano miwili ya Deepseek. Mtengenezaji wa chip aliiambia Mapitio ya Teknolojia ya AI, "Muundo wa Deepseek unaonyesha uvumbuzi, lakini bado ni LLM. Marekebisho yetu ya Deepseek yanalenga sana matumizi ya hoja, na kufanya utekelezaji wa kiufundi kuwa sawa na haraka." Walakini, mbinu ya MOE inahitaji mahitaji ya juu katika suala la uhifadhi na usambazaji, pamoja na kuhakikisha utangamano wakati wa kupeleka na chips za ndani, kuwasilisha changamoto nyingi za uhandisi ambazo zinahitaji azimio wakati wa kukabiliana. "Hivi sasa, nguvu ya ndani ya ndani hailingani na NVIDIA katika utumiaji na utulivu, inayohitaji ushiriki wa kiwanda cha asili kwa usanidi wa mazingira ya programu, utatuzi wa shida, na utaftaji wa utendaji wa msingi," mtaalam wa tasnia alisema kulingana na uzoefu wa vitendo. Wakati huo huo, "Kwa sababu ya kiwango kikubwa cha parameta ya Deepseek R1, nguvu ya ndani ya ndani inahitajika nodi zaidi za kufanana. Kwa kuongezea, maelezo ya vifaa vya ndani bado ni nyuma; Mojawapo ya muhtasari wa mfano wa Deepseek V3 ni utangulizi wa mfumo wa mafunzo ya usahihi wa FP8, ambao umethibitishwa kwa ufanisi kwa mfano mkubwa sana, kuashiria mafanikio makubwa. Hapo awali, wachezaji wakuu kama Microsoft na Nvidia walipendekeza kazi inayohusiana, lakini mashaka yanaendelea ndani ya tasnia kuhusu uwezekano. Inaeleweka kuwa ikilinganishwa na INT8, faida ya msingi ya FP8 ni kwamba idadi ya mafunzo ya baada ya mafunzo inaweza kufikia usahihi wa karibu bila kupoteza wakati unaongeza kasi ya uelekezaji. Wakati wa kulinganisha na FP16, FP8 inaweza kugundua hadi kuongeza kasi mara mbili kwenye H20 ya Nvidia na kuongeza kasi zaidi ya mara 1.5 kwenye H100. Kwa kweli, kama majadiliano yanayozunguka mwenendo wa nguvu za ndani za computational pamoja na mifano ya ndani yanapata kasi, uvumi juu ya ikiwa NVIDIA inaweza kuvurugika, na ikiwa Cuda moat inaweza kupitishwa, inazidi kuongezeka. Ukweli mmoja usioweza kuepukika ni kwamba Deepseek kweli imesababisha kushuka kwa thamani ya soko la Nvidia, lakini mabadiliko haya yanaibua maswali kuhusu uadilifu wa nguvu ya juu ya Nvidia. Simulizi zilizokubaliwa hapo awali kuhusu mkusanyiko wa computational zinazoendeshwa na mtaji zinapingwa, lakini bado ni ngumu kwa Nvidia kubadilishwa kikamilifu katika hali za mafunzo. Uchambuzi wa utumiaji wa kina wa CUDA wa CUDA unaonyesha kuwa kubadilika -kama vile kutumia SM kwa mawasiliano au kudanganya moja kwa moja kadi za mtandao -haiwezekani kwa GPU za kawaida kubeba. Mtazamo wa tasnia unasisitiza kwamba MOAT ya Nvidia inajumuisha mfumo mzima wa mazingira wa CUDA badala ya CUDA yenyewe, na maagizo ya PTX (sambamba ya utekelezaji) ambayo Deepseek inaajiri bado ni sehemu ya ikolojia ya CUDA. "Kwa muda mfupi, nguvu ya ushirika ya Nvidia haiwezi kupitishwa - hii ni wazi katika mafunzo; hata hivyo, kupeleka kadi za ndani kwa hoja itakuwa rahisi, kwa hivyo maendeleo yatakuwa haraka. Urekebishaji wa kadi za ndani kimsingi unazingatia uelekezaji; hakuna mtu aliyeweza kufundisha mfano wa utendaji wa DeepSeek juu ya teknolojia ya kiwango cha chini. Kwa jumla, kwa mtazamo wa uelekezaji, hali zinatia moyo kwa chips kubwa za mfano wa ndani. Fursa za watengenezaji wa chip za ndani ndani ya eneo la uelekezaji zinaonekana zaidi kwa sababu ya mahitaji ya juu ya mafunzo, ambayo huzuia kuingia. Wachambuzi wanashikilia kwamba tu kutumia kadi za uelekezaji wa ndani inatosha; Ikiwa ni lazima, kupata mashine ya ziada inawezekana, wakati mifano ya mafunzo huleta changamoto za kipekee -kusimamia idadi kubwa ya mashine inaweza kuwa mzigo, na viwango vya juu vya makosa vinaweza kuathiri vibaya matokeo ya mafunzo. Mafunzo pia yana mahitaji maalum ya kiwango cha nguzo, wakati mahitaji ya nguzo kwa uelekezaji sio ngumu, na hivyo kupunguza mahitaji ya GPU. Hivi sasa, utendaji wa kadi moja ya H20 ya Nvidia haizidi ile ya Huawei au Cambrian; Nguvu yake iko katika nguzo. Kulingana na athari ya jumla katika soko la nguvu ya computational, mwanzilishi wa Teknolojia ya Luchen, wewe Yang, alibaini katika mahojiano na Mapitio ya Teknolojia ya AI, "Deepseek inaweza kudhoofisha kwa muda uanzishwaji na kukodisha kwa vikundi vya mafunzo ya jumla. mahitaji endelevu katika soko la nguvu ya computational. " Kwa kuongezea, "mahitaji ya juu ya huduma za hoja na huduma nzuri yanaendana zaidi na mazingira ya ndani ya computational, ambapo uwezo wa ndani ni dhaifu, husaidia kupunguza taka kutoka kwa rasilimali za wavivu baada ya nguzo; hii inaunda fursa nzuri kwa wazalishaji katika viwango tofauti vya mfumo wa ndani wa mazingira." Teknolojia ya Luchen imeshirikiana na Huawei Cloud kuzindua safu ya hoja za APIs za Deepseek R1 na huduma za kufikiria wingu kulingana na nguvu ya ndani ya computational. Wewe Yang alionyesha matumaini juu ya siku zijazo: "Deepseek inasisitiza ujasiri katika suluhisho zinazozalishwa ndani, kuhimiza shauku kubwa na uwekezaji katika uwezo wa ndani wa computational kwenda mbele."

Hitimisho
Ikiwa Deepseek ni "bora" kuliko Chatgpt inategemea mahitaji na malengo maalum ya mtumiaji. Kwa kazi zinazohitaji kubadilika, gharama ya chini, na ubinafsishaji, Deepseek inaweza kuwa bora. Kwa uandishi wa ubunifu, uchunguzi wa jumla, na miingiliano ya mazungumzo ya kupendeza ya watumiaji, Chatgpt inaweza kuongoza. Kila chombo hutumikia madhumuni tofauti, kwa hivyo uchaguzi utategemea sana muktadha ambao hutumiwa.
Kudhibiti nyaya
Mfumo ulioandaliwa wa nyaya
Mtandao na data, cable ya fiber-optic, kamba ya kiraka, moduli, uso
Aprili.16-18, 2024 Middle-East-Energy huko Dubai
Aprili.16th-18, 2024 Secrika huko Moscow
Mei.9, 2024 Bidhaa mpya na Teknolojia Uzinduzi wa Tukio huko Shanghai
Oct.22nd-25th, 2024 Usalama China huko Beijing
Novemba.19-20, 2024 Ulimwengu uliounganishwa KSA
Wakati wa chapisho: Feb-10-2025