Per a BMS, autobús, cable industrial, instrumentació.

Quan el festival de primavera s’acaba, l’emoció que envolta Deepseek continua sent forta. Les recents vacances van posar de manifest un sentit important de la competència dins de la indústria de la tecnologia, i molts van discutir i analitzar aquest "bagre". Silicon Valley experimenta una sensació de crisi sense precedents: els defensors de codi obert tornen a manifestar les seves opinions i, fins i tot, Openai està reevaluant si la seva estratègia de codi tancat va ser la millor opció. El nou paradigma dels costos computacionals més baixos ha desencadenat una reacció en cadena entre els gegants de xip com NVIDIA, provocant registres de pèrdues de valor de mercat d’un dia en la història del mercat de valors nord-americanes, mentre que les agències governamentals investiguen el compliment dels xips utilitzats per DeepSeek. Enmig de revisions mixtes de Deepseek a l'estranger, a nivell nacional, experimenta un creixement extraordinari. Després del llançament del model R1, l’aplicació associada ha experimentat un augment del trànsit, cosa que indica que el creixement dels sectors de l’aplicació impulsarà l’ecosistema de l’IA. L’aspecte positiu és que DeepSeek ampliarà les possibilitats d’aplicacions, cosa que suggereix que confiar en ChatGPT no serà tan car en el futur. Aquest canvi s’ha reflectit en les activitats recents de l’Openai, incloent la provisió d’un model de raonament anomenat O3-Mini per alliberar els usuaris en resposta a DeepSeek R1, així com les posteriors actualitzacions que van fer que la cadena pensada de l’O3-MINI sigui pública. Molts usuaris de l'estranger van expressar el seu agraïment a DeepSeek per aquests desenvolupaments, tot i que aquesta cadena pensada serveix de resum.
De manera optimista, és evident que DeepSeek és unificant els jugadors domèstics. Amb la seva atenció a la reducció dels costos de formació, diversos fabricants de xips aigües amunt, proveïdors de núvols intermedis i nombroses startups s’uneixen activament a l’ecosistema, millorant l’eficiència de costos per utilitzar el model DeepSeek. Segons els papers de DeepSeek, la formació completa del model V3 només requereix 2,788 milions de hores de GPU H800 i el procés de formació és altament estable. L’arquitectura MOE (barreja d’experts) és crucial per reduir els costos de pre-entrenament en un factor de deu en comparació amb LLAMA 3 amb 405 mil milions de paràmetres. Actualment, V3 és el primer model reconegut públicament que demostra tanta intensitat a Moe. A més, el MLA (atenció multi -capa) funciona de manera sinèrgica, particularment en aspectes de raonament. "Com més gran sigui el MOE, més gran és la mida del lot necessària durant el raonament per utilitzar plenament la potència computacional, amb la mida del KVCACHE el factor de limitació clau; el MLA redueix significativament la mida de KVCACHE", va assenyalar un investigador de la tecnologia de Chuanjing en una anàlisi per a la revisió de la tecnologia AI. En general, l’èxit de DeepSeek rau en la combinació de diverses tecnologies, no només una sola. Insiders de la indústria lloa les capacitats d’enginyeria de l’equip de Deepseek, destacant la seva excel·lència en la formació paral·lela i l’optimització dels operadors, aconseguint resultats innovadors perfeccionant tots els detalls. L’enfocament de codi obert de DeepSeek alimenta encara més el desenvolupament global de grans models i es preveu que si models similars s’expandeixen en imatges, vídeos i molt més, això estimularà significativament la demanda a tota la indústria.
Oportunitats per a serveis de raonament de tercers
Les dades indiquen que des del seu llançament, DeepSeek ha acumulat 22,15 milions d’usuaris actius diaris (DAU) en només 21 dies, aconseguint el 41,6% de la base d’usuaris de ChatGPT i superant 16,95 milions d’usuaris actius diaris de Doubao, convertint-se així en l’aplicació amb més ràpid creixement a nivell mundial, superant la botiga d’aplicacions d’Apple a 157 països/regions. No obstant això, mentre els usuaris es van acostar a les entrades, els pirates informàtics han atacat de manera implacable l'aplicació DeepSeek, provocant una tensió important als seus servidors. Els analistes de la indústria creuen que això es deu parcialment a les targetes de desplegament de DeepSeek per a la formació, alhora que no tenen una potència computacional suficient per raonar. Un Industry Insider va informar la revisió de la tecnologia de l'AI, "Els problemes del servidor freqüents es poden resoldre fàcilment carregant taxes o finançament per comprar més màquines; en última instància, depèn de les decisions de DeepSeek". Això presenta un compromís per centrar-se en la tecnologia vers la producció. DeepSeek s'ha basat en gran mesura en la quantització quàntica per a l'autosuficiència, havent rebut poc finançament extern, donant lloc a una pressió de flux de caixa relativament baixa i un entorn tecnològic més pur. Actualment, a la vista dels problemes esmentats, alguns usuaris demanen a DeepSeek a les xarxes socials a elevar els llindars d’ús o a introduir funcions de pagament per millorar la comoditat dels usuaris. A més, els desenvolupadors han començat a utilitzar l’API oficial o les API de tercers per a l’optimització. Tot i això, la plataforma oberta de DeepSeek va anunciar recentment: "Els recursos actuals del servidor són escassos i s'han suspès recargos de servei API".
Sens dubte, això obre més oportunitats per als venedors de tercers del sector de la infraestructura de la IA. Recentment, nombrosos gegants nacionals i internacionals de núvols han llançat l’API del model de DeepSeek: els gegants que els Gegants Microsoft i Amazon van ser els primers a unir -se a finals de gener. El líder domèstic, Huawei Cloud, va fer el primer pas, llançant serveis de raonament de DeepSeek R1 i V3 en col·laboració amb el flux basat en silici l'1 de febrer. Els informes de la revisió de la tecnologia de l'AI indiquen que els serveis de Flow basats en silici han vist una afluència d'usuaris, efectivament "caient" la plataforma. Les tres grans empreses tecnològiques: Bat (Baidu, Alibaba, Tencent) i Bytedance, també van emetre ofertes de temps limitat i de baix cost a partir del 3 de febrer, que recorda a les guerres del venedor en núvol de l'any passat encès pel llançament del model V2 de DeepSeek, on DeepSeek va començar a ser condemnat al "preu de la carnisseria". Les accions frenètiques dels venedors de núvols es fan ressò dels forts vincles anteriors entre Microsoft Azure i Openai, on el 2019, Microsoft va fer una inversió substancial de mil milions de dòlars a Openai i va obtenir beneficis després del llançament de Chatgpt el 2023. Tot i això, aquesta relació estreta va començar a frenar després de Meta obert LLAMA, permetent a altres vendes fora de l'ecosistema de Microsoft Azure per compensar amb els seus grans models. En aquest cas, DeepSeek no només ha superat ChatGPT en termes de calor del producte, sinó que també ha introduït models de codi obert després de la publicació O1, similar a la il·lusió que envolta la revifalla de GPT-3 de LLAMA.
En realitat, els proveïdors de núvols també es posicionen com a passarel·les de trànsit per a aplicacions de IA, cosa que significa que l’aprofundiment dels vincles amb els desenvolupadors es tradueix en avantatges preventius. Els informes indiquen que Baidu Smart Cloud tenia més de 15.000 clients que utilitzaven el model DeepSeek a través de la plataforma Qianfan el dia de llançament del model. A més, diverses empreses més petites ofereixen solucions, com ara flux basat en silici, tecnologia Luchen, tecnologia de Chuanjing i diversos proveïdors d’Infra que han llançat suport per a models de DeepSeek. AI Technology Review ha assabentat que les oportunitats d’optimització actuals per a desplegaments localitzats de DeepSeek existeixen principalment en dues àrees: una optimitza per a les característiques de poca quantitat del model MOE mitjançant un enfocament de raonament mixt per desplegar el model de paràmetre MOE de 671 mil milions localment mentre utilitza la inferència de GPU/CPU híbrida. A més, l’optimització de MLA és vital. Tot i això, els dos models de DeepSeek encara tenen alguns reptes en l’optimització de desplegament. "A causa de la mida del model i nombrosos paràmetres, l'optimització és efectivament complexa, particularment per a desplegaments locals en què aconseguir un equilibri òptim entre el rendiment i el cost serà difícil", va declarar un investigador de Chuanjing Technology. L’obstacle més significatiu rau en la superació dels límits de la capacitat de memòria. "Adoptem un enfocament de col·laboració heterogeni per utilitzar plenament les CPU i altres recursos computacionals, situant només les parts no compartides de la matriu MOE escassa a la CPU/DRAM per processar-les amb operadors de CPU d'alt rendiment, mentre que les porcions denses es mantenen a la GPU", va explicar a més. Els informes indiquen que el marc de codi obert de Chuanjing Ktransformers injecta principalment diverses estratègies i operadors a la implementació original dels transformadors mitjançant una plantilla, millorant significativament la velocitat d’inferència mitjançant mètodes com Cudagraph. DeepSeek ha creat oportunitats per a aquestes startups, ja que els beneficis del creixement són evidents; Moltes empreses han reportat un creixement notable dels clients després de llançar l'API DeepSeek, rebent consultes de clients anteriors que busquen optimitzacions. Els interns de la indústria han assenyalat que "en el passat, els grups de clients una mica establerts sovint es van bloquejar en els serveis normalitzats de les empreses més grans, estretament lligades pels seus avantatges de costos a causa de l'escala. Tot i això, després de completar el desplegament de DeepSeek-R1/V3 abans del festival de primavera, de sobte vam rebre sol·licituds de cooperació de diversos clients coneguts i fins i tot abans que els clients descarnants van iniciar el nostre contacte per introduir serveis." Actualment, sembla que DeepSeek fa que el rendiment de la inferència del model sigui cada cop més crític i, amb una adopció més àmplia de grans models, continuarà influir significativament en el desenvolupament de la indústria de la IA. Si un model a nivell de DeepSeek es pogués desplegar localment a un baix cost, ajudaria molt els esforços de transformació digital del govern i de les empreses. No obstant això, els reptes persisteixen, ja que alguns clients poden tenir altes expectatives respecte a les grans capacitats del model, cosa que fa més evident que el rendiment i el cost de l'equilibri es converteixen en vitals en el desplegament pràctic.
Per avaluar si DeepSeek és millor que ChatgPT, és fonamental comprendre les seves diferències, punts forts i casos d’ús. Aquí teniu una comparació completa:
Característica/aspecte | Deepseek | Chatgpt |
---|---|---|
Propietat | Desenvolupat per una empresa xinesa | Desenvolupat per Openai |
Model font | Codi obert | Propietari |
Costar | Lliure d’utilitzar; Opcions d'accés API més barates | Preu de subscripció o pagament per ús |
Personalització | Altament personalitzable, permetent als usuaris ajustar -lo i construir -hi | Personalització limitada disponible |
Rendiment en tasques específiques | Sobresurt en determinades àrees com l'analítica de dades i la recuperació d'informació | Versàtil amb un fort rendiment en l'escriptura creativa i les tasques de conversa |
Suport de la llengua | Forre centrat en la llengua i la cultura xineses | Suport de llenguatge ampli però centrat en els Estats Units |
Cost de la formació | Menors costos de formació, optimitzats per eficiència | Costos de formació més elevats, que requereixen recursos computacionals substancials |
Variació de resposta | Pot oferir respostes diferents, possiblement influenciades pel context geopolític | Respostes consistents basades en dades de formació |
Públic objectiu | Dirigit a desenvolupadors i investigadors que vulguin flexibilitat | Dirigit als usuaris generals que busquen capacitats de conversa |
Casos d’ús | Més eficient per a la generació de codis i les tasques ràpides | Ideal per generar text, respondre consultes i participar en el diàleg |
Una perspectiva crítica sobre "interrompre la nvidia"
Actualment, a part de Huawei, diversos fabricants de xip domèstics com Moore Threads, Muxi, Biran Technology i Tianxu Zhixin també s’adapten als dos models de DeepSeek. Un fabricant de xips va dir a AI Technology Review: "L'estructura de DeepSeek demostra la innovació, però segueix sent una LLM. La nostra adaptació a DeepSeek es centra principalment en les aplicacions de raonament, fent que la implementació tècnica sigui bastant senzilla i ràpida". Tot i això, l’enfocament MOE requereix demandes més elevades en termes d’emmagatzematge i distribució, juntament amb l’assegurança de la compatibilitat quan es desplega amb xips domèstics, presentant nombrosos reptes d’enginyeria que necessiten resolució durant l’adaptació. "Actualment, la potència computacional domèstica no coincideix amb Nvidia en la usabilitat i l'estabilitat, que requereix la participació original de la fàbrica per a la configuració de l'entorn de programari, la resolució de problemes i l'optimització del rendiment fundacional", va dir un metge de la indústria basat en l'experiència pràctica. Simultàniament, "a causa de la gran escala de paràmetres de DeepSeek R1, la potència computacional domèstica necessita més nodes per a la paral·lelització. A més, les especificacions de maquinari domèstiques encara estan enrere; per exemple, el Huawei 910B actualment no pot suportar la inferència FP8 introduïda per DeepSeek." Un dels punts destacats del model V3 DeepSeek és la introducció d’un marc d’entrenament de precisió mixt de FP8, que s’ha validat eficaçment en un model extremadament gran, marcant un assoliment significatiu. Anteriorment, els principals jugadors com Microsoft i Nvidia van suggerir un treball relacionat, però els dubtes que es mantenen dins de la indústria pel que fa a la viabilitat. S’entén que en comparació amb l’int8, l’avantatge principal de FP8 és que la quantització post-entrenament pot aconseguir una precisió gairebé sense pèrdues alhora que millora significativament la velocitat d’inferència. En comparar -se amb FP16, FP8 es pot realitzar fins a dues vegades acceleració en l’H20 de NVIDIA i més d’1,5 vegades l’acceleració del H100. Sobretot, a mesura que les discussions sobre la tendència de la potència computacional domèstica més els models domèstics guanyen impuls, les especulacions sobre si Nvidia es podria alterar i si es podria obviar el fossat CUDA, cada cop és més prevalent. Un fet innegable és que DeepSeek ha provocat efectivament una caiguda substancial del valor de mercat de Nvidia, però aquest canvi planteja qüestions sobre la integritat de potència computacional de gamma alta de NVIDIA. S’estan desafiant narracions prèviament acceptades sobre l’acumulació computacional impulsada per capital, tot i que és difícil que Nvidia sigui substituïda completament en escenaris de formació. L'anàlisi de l'ús profund de CUDA de DeepSeek demostra que la flexibilitat, com ara utilitzar SM per a la comunicació o manipular directament les targetes de xarxa, no és factible que les GPU regulars s'adaptin. Els punts de vista de la indústria subratllen que el fossat de Nvidia engloba tot l'ecosistema CUDA en lloc de simplement CUDA, i les instruccions PTX (execució de fil paral·lel) que utilitza DeepSeek encara formen part de l'ecosistema CUDA. "A curt termini, la potència computacional de Nvidia no es pot obviar; això és especialment clar en la formació; no obstant això, desplegar targetes domèstiques per raonar serà relativament més fàcil, de manera que els avenços seran més ràpids. L'adaptació de les targetes domèstiques se centra principalment en la inferència; ningú no ha aconseguit formar un model de rendiment de DeepSeek a les targetes domèstiques a escala", va remarcar un analista de la indústria a una revisió tecnològica. En general, des del punt de vista d’inferència, les circumstàncies són encoratjadores per a xips domèstics de gran model. Les oportunitats per als fabricants de xips domèstics dins del terreny de la inferència són més evidents a causa dels requisits excessivament elevats de la formació, que dificulten l’entrada. Els analistes afirmen que simplement aprofitar les targetes d’inferència domèstica; Si cal, és factible l’adquisició d’una màquina addicional, mentre que els models de formació suposa reptes únics: gestionar un nombre més gran de màquines pot arribar a ser pesat i les taxes d’error més elevades poden afectar negativament els resultats de l’entrenament. La formació també té requisits específics a escala de clúster, mentre que les exigències de clústers per a la inferència no són tan estrictes, alleugerint així els requisits de la GPU. Actualment, el rendiment de la targeta H20 única de Nvidia no supera la de Huawei o Cambrian; La seva força rau en l’agrupament. A partir de l’impacte global en el mercat de l’energia computacional, el fundador de Luchen Technology, You Yang, va assenyalar en una entrevista a AI Technology Review, "DeepSeek pot minar temporalment l’establiment i el lloguer de clústers computacionals de formació ultra-gran. Demanda al mercat de potència computacional ". A més, "la demanda creixent de Deepseek de raonaments i serveis d'ajustament és més compatible amb el paisatge computacional nacional, on les capacitats locals són relativament febles, ajudant a mitigar els residus dels recursos ociosos post-clúster; això crea oportunitats viables per als fabricants a diferents nivells de l'ecosistema computacional domèstic". Luchen Technology ha col·laborat amb Huawei Cloud per llançar els serveis de raonament de la sèrie R1 de DeepSeek R1 basats en la potència computacional domèstica. Yang va expressar optimisme sobre el futur: "DeepSeek inculca confiança en solucions produïdes a nivell nacional, fomentant un major entusiasme i inversió en les capacitats computacionals domèstiques que avancen".

Conclusió
Si DeepSeek és "millor" que el chatgpt depèn de les necessitats i objectius específics de l'usuari. Per a les tasques que necessiten flexibilitat, baix cost i personalització, DeepSeek pot ser superior. Per a la redacció creativa, la investigació general i les interfícies conversacionals fàcils d’utilitzar, ChatGPT pot tenir el lideratge. Cada eina serveix de propòsits diferents, de manera que l’elecció dependrà molt del context en què s’utilitzen.
Cables de control
Sistema de cablejat estructurat
Xarxa i dades, cable de fibra òptica, cable de pegat, mòduls, placa facial
16 d'abril-18, 2024 Energia de l'Orient Mitjà a Dubai
16 d'abril-18, 2024 Securika a Moscou
9 de maig de 2024 Esdeveniment de llançament de nous productes i tecnologies a Xangai
22 d'octubre del 25 d'octubre de 2024 Seguretat Xina a Beijing
19-20 de novembre de 2024 Mundial Connected KSA
Posada a la hora: 10-2025 de febrer