За BMS, BUS, индустриски, инструментален кабел.

Како што Пролетниот фестивал се приближува кон крајот, возбудата околу DeepSeek останува силна. Неодамнешниот празник истакна значително чувство на конкуренција во технолошката индустрија, при што многумина дискутираат и анализираат овој „сом“. Силиконската долина доживува невидено чувство на криза: застапниците на отворениот код повторно ги искажуваат своите мислења, па дури и OpenAI повторно проценува дали неговата стратегија за затворен код била најдобриот избор. Новата парадигма на пониски пресметковни трошоци предизвика верижна реакција меѓу гигантите за чипови како Nvidia, што доведе до рекордни еднодневни загуби на пазарната вредност во историјата на американскиот пазар на акции, додека владините агенции ја истражуваат усогласеноста на чиповите што ги користи DeepSeek. Среде мешаните критики за DeepSeek во странство, во земјата, тој доживува извонреден раст. По лансирањето на моделот R1, поврзаната апликација забележа пораст на сообраќајот, што укажува дека растот во секторите за апликации ќе го движи целокупниот екосистем на вештачка интелигенција напред. Позитивниот аспект е што DeepSeek ќе ги прошири можностите за апликации, што сугерира дека потпирањето на ChatGPT нема да биде толку скапо во иднина. Оваа промена се одрази во неодамнешните активности на OpenAI, вклучително и обезбедувањето на модел на расудување наречен o3-mini за слободни корисници како одговор на DeepSeek R1, како и последователните надградби што го направија ланец на размислување на o3-mini јавен. Многу корисници од странство изразија благодарност до DeepSeek за овие случувања, иако овој ланец на размислување служи како резиме.
Оптимистички, очигледно е дека DeepSeek ги обединува домашните играчи. Со фокус на намалување на трошоците за обука, разни производители на чипови, средни даватели на облак и бројни стартапи активно се приклучуваат на екосистемот, подобрувајќи ја ефикасноста на трошоците за користење на моделот DeepSeek. Според трудовите на DeepSeek, целосната обука на моделот V3 бара само 2,788 милиони H800 GPU часови, а процесот на обука е многу стабилен. Архитектурата MoE (мешавина од експерти) е клучна за намалување на трошоците за претходна обука за фактор десет во споредба со Llama 3 со 405 милијарди параметри. Во моментов, V3 е првиот јавно признат модел што покажува толку висока реткост во MoE. Дополнително, MLA (Multi Layer Attention) работи синергистички, особено во аспектите на расудување. „Колку е поретко MoE, толку е поголема големината на серијата потребна за време на расудувањето за целосно да се искористи компјутерската моќ, при што големината на KVCache е клучен ограничувачки фактор; MLA значително ја намалува големината на KVCache“, забележа истражувач од Chuanjing Technology во анализа за AI Technology Review. Генерално, успехот на DeepSeek лежи во комбинацијата на различни технологии, а не само на една. Експерти од индустријата ги пофалуваат инженерските способности на тимот на DeepSeek, истакнувајќи ја нивната извонредност во паралелната обука и оптимизацијата на операторите, постигнувајќи револуционерни резултати со усовршување на секој детаљ. Пристапот со отворен код на DeepSeek дополнително го поттикнува целокупниот развој на големи модели и се очекува дека доколку слични модели се прошират во слики, видеа и друго, ова значително ќе ја стимулира побарувачката низ целата индустрија.
Можности за услуги за расудување од трети страни
Податоците покажуваат дека од објавувањето, DeepSeek собрал 22,15 милиони дневно активни корисници (DAU) во рок од само 21 ден, достигнувајќи 41,6% од корисничката база на ChatGPT и надминувајќи 16,95 милиони дневно активни корисници на Doubao, со што стана најбрзорастечката апликација на глобално ниво, на врвот на Apple App Store во 157 земји/региони. Сепак, додека корисниците се собираа во голем број, сајбер хакерите неуморно ја напаѓаат апликацијата DeepSeek, предизвикувајќи значително оптоварување на нејзините сервери. Аналитичарите од индустријата веруваат дека ова делумно се должи на тоа што DeepSeek распоредува картички за обука, а нема доволно компјутерска моќ за расудување. Инсајдер од индустријата го информираше AI Technology Review: „Честите проблеми со серверот можат лесно да се решат со наплата на такси или финансирање за купување повеќе машини; на крајот, тоа зависи од одлуките на DeepSeek“. Ова претставува компромис во фокусирањето на технологијата наспроти продуктизацијата. DeepSeek во голема мера се потпираше на квантната квантизација за самоодржување, добивајќи малку надворешно финансирање, што резултираше со релативно низок притисок на паричниот тек и почиста технолошка средина. Во моментов, во светлината на горенаведените проблеми, некои корисници го повикуваат DeepSeek на социјалните медиуми да ги зголеми праговите на користење или да воведе платени функции за да се подобри удобноста на корисниците. Дополнително, програмерите почнаа да го користат официјалниот API или API-јата од трети страни за оптимизација. Сепак, отворената платформа на DeepSeek неодамна објави: „Тековните ресурси на серверот се оскудни, а надополнувањата на API-услугите се суспендирани“.
Ова несомнено отвора повеќе можности за добавувачи од трети страни во секторот за инфраструктура на вештачка интелигенција. Неодамна, бројни домашни и меѓународни гиганти во облак ги лансираа моделните API-ја на DeepSeek - странските гиганти Microsoft и Amazon беа меѓу првите што се приклучија на крајот на јануари. Домашниот лидер, Huawei Cloud, го направи првиот потег, објавувајќи ги услугите за расудување DeepSeek R1 и V3 во соработка со Flow, базиран на Silicon, на 1 февруари. Извештаите од AI Technology Review покажуваат дека услугите на Flow, базиран на Silicon, забележаа прилив на корисници, што ефикасно ја „сруши“ платформата. Трите големи технолошки компании - BAT (Baidu, Alibaba, Tencent) и ByteDance - исто така издадоа нискобуџетни, временски ограничени понуди почнувајќи од 3 февруари, потсетувајќи на минатогодишните војни на цените на добавувачите во облак, предизвикани од лансирањето на моделот V2 на DeepSeek, каде што DeepSeek почна да се нарекува „касап на цени“. Брзите акции на продавачите на cloud услуги ги одразуваат претходните силни врски помеѓу Microsoft Azure и OpenAI, каде што во 2019 година, Microsoft направи значителна инвестиција од 1 милијарда долари во OpenAI и оствари придобивки по лансирањето на ChatGPT во 2023 година. Сепак, оваа блиска врска почна да се влошува откако Meta го воведе Llama со отворен код, дозволувајќи им на другите продавачи надвор од екосистемот на Microsoft Azure да се натпреваруваат со нивните големи модели. Во овој случај, DeepSeek не само што го надмина ChatGPT во однос на популарноста на производите, туку воведе и модели со отворен код по објавувањето на o1, слично на возбудата околу оживувањето на GPT-3 од страна на Llama.
Всушност, давателите на услуги во облак се позиционираат себеси како сообраќајни портали за апликации со вештачка интелигенција, што значи дека продлабочувањето на врските со програмерите се претвора во превентивни предности. Извештаите покажуваат дека Baidu Smart Cloud имал над 15.000 клиенти кои го користеле моделот DeepSeek преку платформата Qianfan на денот на лансирањето на моделот. Дополнително, неколку помали фирми нудат решенија, вклучувајќи ги Flow, Luchen Technology, Chuanjing Technology и разни даватели на AI Infra кои започнаа поддршка за моделите DeepSeek. AI Technology Review дозна дека моменталните можности за оптимизација за локализирани распоредувања на DeepSeek првенствено постојат во две области: едната е оптимизирање за карактеристиките на реткост на моделот MoE користејќи пристап на мешано расудување за локално распоредување на моделот MoE од 671 милијарди параметри, додека се користи хибридна GPU/CPU инференција. Дополнително, оптимизацијата на MLA е од витално значење. Сепак, двата модели на DeepSeek сè уште се соочуваат со некои предизвици во оптимизацијата на распоредувањето. „Поради големината на моделот и бројните параметри, оптимизацијата е навистина комплексна, особено за локални распоредувања каде што постигнувањето оптимална рамнотежа помеѓу перформансите и трошоците ќе биде предизвик“, изјави истражувач од Chuanjing Technology. Најзначајната пречка лежи во надминувањето на ограничувањата на капацитетот на меморијата. „Усвојуваме хетероген пристап на соработка за целосно искористување на процесорите и другите пресметковни ресурси, ставајќи ги само несподелените делови од ретката MoE матрица на CPU/DRAM за обработка со користење на високо-перформансни CPU оператори, додека густите делови остануваат на графичката картичка“, објасни тој понатаму. Извештаите покажуваат дека рамката со отворен код на Chuanjing, KTransformers, првенствено инјектира различни стратегии и оператори во оригиналната имплементација на Transformers преку шаблон, значително подобрувајќи ја брзината на инференција со користење на методи како CUDAGraph. DeepSeek создаде можности за овие стартапи, бидејќи придобивките од растот стануваат очигледни; многу фирми пријавија забележителен раст на клиентите по лансирањето на DeepSeek API, добивајќи барања од претходни клиенти кои бараат оптимизации. Експерти од индустријата забележале: „Во минатото, донекаде воспоставените групи клиенти честопати беа врзани за стандардизираните услуги на поголемите компании, цврсто врзани од нивните ценовни предности поради обемот. Сепак, по завршувањето на распоредувањето на DeepSeek-R1/V3 пред Пролетниот фестивал, одеднаш добивме барања за соработка од неколку добро познати клиенти, па дури и претходно неактивни клиенти иницираа контакт за да ги воведат нашите услуги на DeepSeek“. Во моментов, се чини дека DeepSeek ги прави перформансите на моделот сè покритични, а со поширокото усвојување на големи модели, ова ќе продолжи значително да влијае на развојот во индустријата за вештачка инфраструктура. Доколку модел на ниво на DeepSeek може да се распореди локално по ниска цена, тоа во голема мера би помогнало во напорите за дигитална трансформација на владата и претпријатијата. Сепак, предизвиците продолжуваат, бидејќи некои клиенти може да имаат високи очекувања во врска со можностите на големите модели, што го прави поочигледно дека балансирањето на перформансите и трошоците станува клучно во практичното распоредување.
За да се процени дали DeepSeek е подобар од ChatGPT, важно е да се разберат нивните клучни разлики, предности и случаи на употреба. Еве една сеопфатна споредба:
Карактеристика/Аспект | DeepSeek | ChatGPT |
---|---|---|
Сопственост | Развиена од кинеска компанија | Развиено од OpenAI |
Изворен модел | Отворен код | Сопственички |
Цена | Бесплатно за користење; поевтини опции за пристап до API | Цени по претплата или плаќање по употреба |
Прилагодување | Високо прилагодлив, дозволувајќи им на корисниците да го прилагодуваат и да го градат врз основа на него | Достапно е ограничено прилагодување |
Перформанси во специфични задачи | Се истакнува во одредени области како што се анализа на податоци и пребарување информации | Разновиден со силни перформанси во креативно пишување и разговорни задачи |
Јазична поддршка | Силен фокус на кинескиот јазик и култура | Широка јазична поддршка, но фокусирана на САД |
Цена на обука | Пониски трошоци за обука, оптимизирани за ефикасност | Повисоки трошоци за обука, кои бараат значителни пресметковни ресурси |
Варијација на одговорот | Може да понуди различни одговори, веројатно под влијание на геополитичкиот контекст | Доследни одговори базирани на податоци за обука |
Целна публика | Наменето за програмери и истражувачи кои сакаат флексибилност | Наменето за општи корисници кои бараат можности за разговор |
Случаи на употреба | Поефикасно за генерирање код и брзи задачи | Идеално за генерирање текст, одговарање на прашања и вклучување во дијалог |
Критичка перспектива за „нарушувањето на Nvidia“
Во моментов, покрај Huawei, неколку домашни производители на чипови како Moore Threads, Muxi, Biran Technology и Tianxu Zhixin, исто така, се адаптираат на двата модели на DeepSeek. Производител на чипови изјави за AI Technology Review: „Структурата на DeepSeek демонстрира иновација, но сепак останува LLM. Нашата адаптација на DeepSeek е првенствено фокусирана на апликации за расудување, правејќи ја техничката имплементација прилично едноставна и брза“. Сепак, пристапот на Министерството за економија бара повисоки барања во однос на складирањето и дистрибуцијата, заедно со обезбедување компатибилност при распоредување со домашни чипови, претставувајќи бројни инженерски предизвици кои треба да се решат за време на адаптацијата. „Во моментов, домашната компјутерска моќ не се совпаѓа со Nvidia во употребливоста и стабилноста, барајќи оригинално фабричко учество за поставување на софтверската околина, решавање проблеми и оптимизација на основните перформанси“, рече практичар од индустријата врз основа на практичното искуство. Истовремено, „Поради големата скала на параметри на DeepSeek R1, домашната компјутерска моќ бара повеќе јазли за паралелизација. Дополнително, домашните хардверски спецификации сè уште заостануваат; на пример, Huawei 910B моментално не може да ја поддржи FP8 инференцијата воведена од DeepSeek“. Една од најважните страни на моделот DeepSeek V3 е воведувањето на рамка за обука со мешана прецизност FP8, која е ефикасно валидирана на екстремно голем модел, што претставува значајно достигнување. Претходно, големи играчи како Microsoft и Nvidia предложија сродна работа, но во индустријата постојат сомнежи во врска со изводливоста. Се подразбира дека во споредба со INT8, главната предност на FP8 е што квантизацијата по обуката може да постигне прецизност речиси без загуби, а воедно значително да ја зголеми брзината на инференција. Во споредба со FP16, FP8 може да оствари до два пати забрзување на H20 на Nvidia и над 1,5 пати забрзување на H100. Имено, како што дискусиите околу трендот на домашната компјутерска моќ плус домашните модели добиваат на интензитет, шпекулациите за тоа дали Nvidia може да биде нарушена и дали ровот CUDA може да се заобиколи, стануваат сè позастапени. Еден неоспорен факт е дека DeepSeek навистина предизвика значителен пад на пазарната вредност на Nvidia, но оваа промена покренува прашања во врска со интегритетот на компјутерската моќ на врвните модели на Nvidia. Претходно прифатените наративи во врска со акумулацијата на пресметковни средства водена од капитал се оспоруваат, но сепак е тешко за Nvidia целосно да се замени во сценаријата за обука. Анализата на длабоката употреба на CUDA од страна на DeepSeek покажува дека флексибилноста - како што е користењето на SM за комуникација или директното манипулирање со мрежни картички - не е изводлива за обичните графички процесори. Ставовите на индустријата нагласуваат дека ровот на Nvidia го опфаќа целиот CUDA екосистем, а не само самата CUDA, а инструкциите PTX (Parallel Thread Execution) што ги користи DeepSeek се уште се дел од CUDA екосистемот. „На краток рок, пресметковната моќ на Nvidia не може да се заобиколи - ова е особено јасно во обуката; сепак, распоредувањето на домашните картички за расудување ќе биде релативно полесно, па напредокот веројатно ќе биде побрз. Адаптацијата на домашните картички првенствено се фокусира на инференција; никој сè уште не успеал да обучи модел на перформансите на DeepSeek на домашни картички во голем обем“, забележа индустриски аналитичар за AI Technology Review. Генерално, од гледна точка на инференција, околностите се охрабрувачки за домашните чипови со голем модел. Можностите за домашните производители на чипови во сферата на инференција се поочигледни поради претерано високите барања за обука, што го попречува влезот. Аналитичарите тврдат дека едноставното користење на домашни картички за инференција е доволно; доколку е потребно, стекнувањето дополнителна машина е изводливо, додека моделите за обука претставуваат единствени предизвици - управувањето со зголемен број машини може да стане оптоварувачко, а повисоките стапки на грешки можат негативно да влијаат на резултатите од обуката. Обуката, исто така, има специфични барања за кластерска скала, додека барањата за кластери за инференција не се толку строги, со што се олеснуваат барањата на графичкиот процесор. Во моментов, перформансите на единствената H20 картичка на Nvidia не ги надминуваат оние на Huawei или Cambrian; нејзината сила лежи во кластерирањето. Врз основа на целокупното влијание врз пазарот на компјутерска моќ, основачот на Luchen Technology, Ју Јанг, забележа во интервју за AI Technology Review: „DeepSeek може привремено да го поткопа воспоставувањето и изнајмувањето на ултра-големи кластери за компјутерска обука. На долг рок, со значително намалување на трошоците поврзани со обука, расудување и апликации за големи модели, побарувачката на пазарот веројатно ќе се зголеми. Последователните итерации на вештачката интелигенција базирани на ова затоа постојано ќе ја поттикнуваат одржливата побарувачка на пазарот на компјутерска моќ.“ Дополнително, „зголемената побарувачка на DeepSeek за услуги за расудување и фино подесување е покомпатибилна со домашниот компјутерски пејзаж, каде што локалните капацитети се релативно слаби, помагајќи да се ублажи отпадот од неактивни ресурси по воспоставувањето на кластери; ова создава одржливи можности за производителите на различни нивоа од домашниот компјутерски екосистем“. Luchen Technology соработуваше со Huawei Cloud за да ги лансира API-јата за расудување од серијата DeepSeek R1 и услугите за обработка на слики во облак базирани на домашна компјутерска моќ. Ју Јанг изрази оптимизам за иднината: „DeepSeek влева доверба во домашно произведените решенија, охрабрувајќи поголем ентузијазам и инвестиции во домашни компјутерски способности во иднина“.

Заклучок
Дали DeepSeek е „подобар“ од ChatGPT зависи од специфичните потреби и цели на корисникот. За задачи што бараат флексибилност, ниска цена и прилагодување, DeepSeek може да биде супериорен. За креативно пишување, општо истражување и кориснички интерфејси за разговор, ChatGPT може да биде водечка опција. Секоја алатка служи за различни цели, па затоа изборот во голема мера ќе зависи од контекстот во кој се користи.
Контролни кабли
Структуриран кабелски систем
Мрежа и податоци, оптички кабел, спојувачки кабел, модули, предна плоча
16-18 април 2024 година, Блискоисточна енергија во Дубаи
16-18 април 2024 година, Securika во Москва
9 мај 2024 година, настан за лансирање на нови производи и технологии во Шангај
22-25 октомври 2024 година, SECURITY CHINA во Пекинг
19-20 ноември 2024 година, ПОВРЗАНИОТ СВЕТ, Јужна Африка
Време на објавување: 10 февруари 2025 година