DeepSeek: La disruptiva que revoluciona el panorama de la IA

GRUP AIPU WATON

Introducció

Ansietat contínua entre grans models que competeixen, proveïdors de núvol que competeixen per quota de mercat i fabricants de xips treballadors: l'efecte DeepSeek persisteix.

A mesura que la Festa de la Primavera arriba a la seva fi, l'emoció que envolta DeepSeek continua sent forta. Les vacances recents van posar de manifest una important sensació de competència dins de la indústria tecnològica, amb molts debatent i analitzant aquest "peix gat". Silicon Valley està experimentant una sensació de crisi sense precedents: els defensors del codi obert tornen a expressar les seves opinions, i fins i tot OpenAI està reavaluant si la seva estratègia de codi tancat va ser la millor opció. El nou paradigma de costos computacionals més baixos ha desencadenat una reacció en cadena entre gegants de xips com Nvidia, cosa que ha provocat pèrdues rècord de valor de mercat d'un sol dia en la història del mercat de valors dels EUA, mentre que les agències governamentals investiguen el compliment dels xips utilitzats per DeepSeek. Enmig de crítiques diverses sobre DeepSeek a l'estranger, a nivell nacional, està experimentant un creixement extraordinari. Després del llançament del model R1, l'aplicació associada ha vist un augment del trànsit, cosa que indica que el creixement en els sectors d'aplicacions impulsarà l'ecosistema general de la IA. L'aspecte positiu és que DeepSeek ampliarà les possibilitats de les aplicacions, cosa que suggereix que confiar en ChatGPT no serà tan car en el futur. Aquest canvi s'ha reflectit en les activitats recents d'OpenAI, incloent-hi la provisió d'un model de raonament anomenat o3-mini als usuaris gratuïts en resposta a DeepSeek R1, així com actualitzacions posteriors que van fer pública la cadena de pensament d'o3-mini. Molts usuaris estrangers van expressar la seva gratitud a DeepSeek per aquests desenvolupaments, tot i que aquesta cadena de pensament serveix com a resum.

Optimistament, és evident que DeepSeek està unificant els actors nacionals. Amb el seu enfocament en la reducció dels costos de formació, diversos fabricants de xips aigües amunt, proveïdors intermedis de núvol i nombroses startups s'estan unint activament a l'ecosistema, millorant l'eficiència de costos per a l'ús del model DeepSeek. Segons els articles de DeepSeek, la formació completa del model V3 només requereix 2.788 milions d'hores de GPU H800, i el procés de formació és altament estable. L'arquitectura MoE (Mixture of Experts) és crucial per reduir els costos previs a la formació per un factor de deu en comparació amb Llama 3 amb 405.000 milions de paràmetres. Actualment, V3 és el primer model reconegut públicament que demostra una dispersió tan alta en MoE. A més, l'MLA (Multi Layer Attention) funciona sinèrgicament, particularment en aspectes de raonament. "Com més dispers sigui el MoE, més gran serà la mida del lot necessària durant el raonament per utilitzar completament la potència computacional, sent la mida del KVCache el factor limitant clau; l'MLA redueix significativament la mida del KVCache", va assenyalar un investigador de Chuanjing Technology en una anàlisi per a AI Technology Review. En general, l'èxit de DeepSeek rau en la combinació de diverses tecnologies, no només d'una sola. Els experts del sector lloen les capacitats d'enginyeria de l'equip de DeepSeek, destacant la seva excel·lència en la formació paral·lela i l'optimització d'operadors, aconseguint resultats innovadors refinant cada detall. L'enfocament de codi obert de DeepSeek impulsa encara més el desenvolupament general de grans models, i es preveu que si models similars s'expandeixen a imatges, vídeos i més, això estimularà significativament la demanda a tota la indústria.

Oportunitats per a serveis de raonament de tercers

Les dades indiquen que des del seu llançament, DeepSeek ha acumulat 22,15 milions d'usuaris actius diaris (DAU) en només 21 dies, aconseguint el 41,6% de la base d'usuaris de ChatGPT i superant els 16,95 milions d'usuaris actius diaris de Doubao, convertint-se així en l'aplicació de més ràpid creixement a nivell mundial, encapçalant l'App Store d'Apple en 157 països/regions. Tanmateix, mentre els usuaris acudien en massa, els pirates informàtics han estat atacant implacablement l'aplicació DeepSeek, causant una tensió important als seus servidors. Els analistes de la indústria creuen que això es deu en part al fet que DeepSeek implementa targetes per a l'entrenament mentre no té prou potència computacional per al raonament. Una font interna de la indústria va informar a AI Technology Review: "Els problemes freqüents del servidor es poden resoldre fàcilment cobrant tarifes o finançament per comprar més màquines; en última instància, depèn de les decisions de DeepSeek". Això presenta un compromís entre centrar-se en la tecnologia i la productivització. DeepSeek s'ha basat en gran mesura en la quantificació quàntica per a l'autosuficiència, havent rebut poc finançament extern, la qual cosa ha resultat en una pressió de flux de caixa relativament baixa i un entorn tecnològic més pur. Actualment, a la llum dels problemes esmentats anteriorment, alguns usuaris insten DeepSeek a les xarxes socials a elevar els llindars d'ús o a introduir funcions de pagament per millorar la comoditat de l'usuari. A més, els desenvolupadors han començat a utilitzar l'API oficial o API de tercers per a l'optimització. Tanmateix, la plataforma oberta de DeepSeek ha anunciat recentment: "Els recursos actuals del servidor són escassos i les recàrregues del servei de l'API s'han suspès".

 

Sens dubte, això obre més oportunitats per a proveïdors externs en el sector de la infraestructura d'IA. Recentment, nombrosos gegants del núvol nacionals i internacionals han llançat les API de models de DeepSeek; els gegants estrangers Microsoft i Amazon van ser dels primers a unir-s'hi a finals de gener. El líder nacional, Huawei Cloud, va fer el primer pas, llançant els serveis de raonament DeepSeek R1 i V3 en col·laboració amb Silicon-based Flow l'1 de febrer. Els informes d'AI Technology Review indiquen que els serveis de Silicon-based Flow han vist una afluència d'usuaris, cosa que ha fet que la plataforma s'estavelli. Les tres grans empreses tecnològiques, BAT (Baidu, Alibaba, Tencent) i ByteDance, també van emetre ofertes de baix cost i per temps limitat a partir del 3 de febrer, que recorden les guerres de preus dels proveïdors de núvol de l'any passat desencadenades pel llançament del model V2 de DeepSeek, on DeepSeek va començar a ser anomenada la "carnissera de preus". Les accions frenètiques dels proveïdors de núvol reflecteixen els forts vincles anteriors entre Microsoft Azure i OpenAI, on el 2019 Microsoft va fer una inversió substancial d'1.000 milions de dòlars en OpenAI i va obtenir beneficis després del llançament de ChatGPT el 2023. Tanmateix, aquesta estreta relació va començar a desgastar-se després que Meta donés codi obert a Llama, permetent a altres proveïdors fora de l'ecosistema de Microsoft Azure competir amb els seus grans models. En aquest cas, DeepSeek no només ha superat ChatGPT pel que fa a l'entusiasme del producte, sinó que també ha introduït models de codi obert després del llançament d'o1, de manera similar a l'emoció que va envoltar el renaixement de GPT-3 per part de Llama.

 

En realitat, els proveïdors de núvol també es posicionen com a passarel·les de trànsit per a aplicacions d'IA, cosa que significa que l'aprofundiment dels vincles amb els desenvolupadors es tradueix en avantatges preventius. Els informes indiquen que Baidu Smart Cloud tenia més de 15.000 clients que utilitzaven el model DeepSeek a través de la plataforma Qianfan el dia del llançament del model. A més, diverses empreses més petites ofereixen solucions, com ara Silicon-based Flow, Luchen Technology, Chuanjing Technology i diversos proveïdors d'infraestructures d'IA que han llançat suport per als models DeepSeek. AI Technology Review ha après que les oportunitats d'optimització actuals per a implementacions localitzades de DeepSeek existeixen principalment en dues àrees: una és optimitzar les característiques de dispersió del model MoE mitjançant un enfocament de raonament mixt per implementar el model MoE de 671.000 milions de paràmetres localment mentre s'utilitza la inferència híbrida GPU/CPU. A més, l'optimització de MLA és vital. Tanmateix, els dos models de DeepSeek encara s'enfronten a alguns reptes en l'optimització de la implementació. "A causa de la mida del model i els nombrosos paràmetres, l'optimització és realment complexa, especialment per a implementacions locals on aconseguir un equilibri òptim entre rendiment i cost serà un repte", va afirmar un investigador de Chuanjing Technology. L'obstacle més important rau en superar els límits de capacitat de memòria. "Adoptem un enfocament de col·laboració heterogènia per utilitzar completament les CPU i altres recursos computacionals, col·locant només les parts no compartides de la matriu MoE dispersa a la CPU/DRAM per al processament mitjançant operadors de CPU d'alt rendiment, mentre que les parts denses romanen a la GPU", va explicar. Els informes indiquen que el marc de codi obert KTransformers de Chuanjing injecta principalment diverses estratègies i operadors a la implementació original de Transformers a través d'una plantilla, millorant significativament la velocitat d'inferència mitjançant mètodes com CUDAGraph. DeepSeek ha creat oportunitats per a aquestes startups, ja que els beneficis de creixement s'estan fent evidents; moltes empreses han informat d'un creixement notable de clients després de llançar l'API de DeepSeek, rebent consultes de clients anteriors que buscaven optimitzacions. Experts en la indústria han assenyalat: "En el passat, els grups de clients una mica establerts sovint estaven lligats als serveis estandarditzats de les empreses més grans, estretament lligats pels seus avantatges de costos a causa de l'escala. Tanmateix, després de completar el desplegament de DeepSeek-R1/V3 abans del Festival de Primavera, de sobte vam rebre sol·licituds de cooperació de diversos clients coneguts, i fins i tot clients anteriorment inactius van iniciar contactes per presentar els nostres serveis DeepSeek". Actualment, sembla que DeepSeek està fent que el rendiment de la inferència de models sigui cada cop més crític, i amb l'adopció més àmplia de grans models, això continuarà influint significativament en el desenvolupament de la indústria de la infraestructura d'IA. Si un model a nivell de DeepSeek es pogués desplegar localment a baix cost, ajudaria enormement els esforços de transformació digital del govern i de les empreses. Tanmateix, els reptes persisteixen, ja que alguns clients poden tenir altes expectatives pel que fa a les capacitats dels grans models, cosa que fa més evident que equilibrar el rendiment i el cost esdevé vital en el desplegament pràctic. 

Per avaluar si DeepSeek és millor que ChatGPT, és essencial entendre les seves principals diferències, punts forts i casos d'ús. Aquí teniu una comparació completa:

Característica/Aspecte DeepSeek XatGPT
Propietat Desenvolupat per una empresa xinesa Desenvolupat per OpenAI
Model d'origen Codi obert Propietari
Cost Ús gratuït; opcions d'accés a l'API més econòmiques Preus de subscripció o de pagament per ús
Personalització Altament personalitzable, permetent als usuaris modificar-lo i desenvolupar-lo a partir d'aquí Personalització limitada disponible
Rendiment en tasques específiques Destaca en certes àrees com l'anàlisi de dades i la recuperació d'informació Versàtil amb un fort rendiment en escriptura creativa i tasques conversacionals.
Suport lingüístic Forta atenció a la llengua i la cultura xineses Ampli suport d'idiomes però centrat en els EUA
Cost de formació Costos de formació més baixos, optimitzats per a l'eficiència Costos de formació més elevats, que requereixen recursos computacionals substancials
Variació de resposta Pot oferir respostes diferents, possiblement influenciades pel context geopolític Respostes consistents basades en dades d'entrenament
Públic objectiu Dirigit a desenvolupadors i investigadors que busquen flexibilitat Dirigit a usuaris generals que busquen capacitats de conversa
Casos d'ús Més eficient per a la generació de codi i tasques ràpides Ideal per generar text, respondre preguntes i iniciar diàlegs

Una perspectiva crítica sobre "la disrupció d'Nvidia"

Actualment, a part de Huawei, diversos fabricants de xips nacionals com Moore Threads, Muxi, Biran Technology i Tianxu Zhixin també s'estan adaptant als dos models de DeepSeek. Un fabricant de xips va dir a AI Technology Review: "L'estructura de DeepSeek demostra innovació, però continua sent un LLM. La nostra adaptació a DeepSeek se centra principalment en aplicacions de raonament, fent que la implementació tècnica sigui bastant senzilla i ràpida". Tanmateix, l'enfocament MoE requereix demandes més elevades pel que fa a l'emmagatzematge i la distribució, juntament amb la garantia de la compatibilitat en el desplegament amb xips nacionals, presentant nombrosos reptes d'enginyeria que cal resoldre durant l'adaptació. "Actualment, la potència computacional nacional no coincideix amb Nvidia en usabilitat i estabilitat, cosa que requereix la participació original de la fàbrica per a la configuració de l'entorn de programari, la resolució de problemes i l'optimització del rendiment fonamental", va dir un professional de la indústria basant-se en l'experiència pràctica. Alhora, "a causa de la gran escala de paràmetres de DeepSeek R1, la potència computacional nacional necessita més nodes per a la paral·lelització. A més, les especificacions de maquinari nacionals encara estan una mica endarrerides; per exemple, el Huawei 910B actualment no pot admetre la inferència FP8 introduïda per DeepSeek". Un dels aspectes més destacats del model DeepSeek V3 és la introducció d'un marc d'entrenament de precisió mixta FP8, que s'ha validat eficaçment en un model extremadament gran, cosa que representa un assoliment significatiu. Anteriorment, grans actors com Microsoft i Nvidia havien suggerit treballs relacionats, però persisteixen dubtes dins de la indústria pel que fa a la viabilitat. S'entén que, en comparació amb l'INT8, el principal avantatge del FP8 és que la quantificació posterior a l'entrenament pot aconseguir una precisió gairebé sense pèrdues alhora que millora significativament la velocitat d'inferència. En comparació amb el FP16, el FP8 pot aconseguir una acceleració de fins a dues vegades superior a l'H20 de Nvidia i més d'1,5 vegades superior a l'H100. Cal destacar que, a mesura que les discussions sobre la tendència de la potència computacional nacional més els models nacionals guanyen impuls, l'especulació sobre si Nvidia podria ser interrompuda i si es podria eludir el fossat CUDA és cada cop més freqüent. Un fet innegable és que DeepSeek ha causat una caiguda substancial del valor de mercat de Nvidia, però aquest canvi planteja preguntes sobre la integritat de la potència computacional d'alta gamma de Nvidia. Les narratives prèviament acceptades sobre l'acumulació computacional impulsada pel capital s'estan qüestionant, però continua sent difícil que Nvidia sigui completament substituïda en escenaris d'entrenament. L'anàlisi de l'ús profund de CUDA per part de DeepSeek mostra que la flexibilitat, com ara l'ús de SM per a la comunicació o la manipulació directa de targetes de xarxa, no és factible per a les GPU normals. Els punts de vista de la indústria emfatitzen que el domini de Nvidia abasta tot l'ecosistema CUDA en lloc de només CUDA, i les instruccions PTX (Execució de fils paral·lels) que utilitza DeepSeek encara formen part de l'ecosistema CUDA. "A curt termini, la potència computacional de Nvidia no es pot eludir, això és especialment clar en l'entrenament; tanmateix, implementar targetes domèstiques per al raonament serà relativament més fàcil, de manera que el progrés probablement serà més ràpid. L'adaptació de les targetes domèstiques se centra principalment en la inferència; ningú ha aconseguit encara entrenar un model del rendiment de DeepSeek en targetes domèstiques a escala", va comentar un analista de la indústria a AI Technology Review. En general, des del punt de vista de la inferència, les circumstàncies són encoratjadores per als xips domèstics de model gran. Les oportunitats per als fabricants de xips nacionals en l'àmbit de la inferència són més evidents a causa dels requisits excessivament alts de l'entrenament, que dificulten l'entrada. Els analistes sostenen que simplement aprofitar les targetes d'inferència nacionals és suficient; si cal, adquirir una màquina addicional és factible, mentre que els models d'entrenament plantegen reptes únics: gestionar un nombre més gran de màquines pot esdevenir feixuc i les taxes d'error més altes poden afectar negativament els resultats de l'entrenament. L'entrenament també té requisits específics d'escala de clúster, mentre que les demandes als clústers d'inferència no són tan estrictes, cosa que facilita els requisits de la GPU. Actualment, el rendiment de la targeta H20 única de Nvidia no supera el de Huawei o Cambrian; el seu punt fort rau en l'agrupació en clústers. Basant-se en l'impacte general en el mercat de la potència computacional, el fundador de Luchen Technology, You Yang, va assenyalar en una entrevista amb AI Technology Review: "DeepSeek pot soscavar temporalment l'establiment i el lloguer de clústers computacionals d'entrenament ultra grans. A la llarga, en reduir significativament els costos associats a l'entrenament, el raonament i les aplicacions de models grans, és probable que la demanda del mercat augmenti. Per tant, les iteracions posteriors de la IA basades en això impulsaran contínuament una demanda sostinguda en el mercat de la potència computacional". A més, "l'augment de la demanda de serveis de raonament i ajust fi de DeepSeek és més compatible amb el panorama computacional nacional, on les capacitats locals són relativament febles, cosa que ajuda a mitigar el malbaratament de recursos inactius després de l'establiment del clúster; això crea oportunitats viables per als fabricants a diferents nivells de l'ecosistema computacional nacional". Luchen Technology ha col·laborat amb Huawei Cloud per llançar les API de raonament de la sèrie DeepSeek R1 i els serveis d'imatges al núvol basats en la potència computacional nacional. You Yang va expressar optimisme sobre el futur: "DeepSeek infon confiança en les solucions produïdes nacionalment, fomentant un major entusiasme i inversió en capacitats computacionals nacionals en el futur".

微信图片_20240614024031.jpg1

Conclusió

Que DeepSeek sigui "millor" que ChatGPT depèn de les necessitats i els objectius específics de l'usuari. Per a tasques que requereixen flexibilitat, baix cost i personalització, DeepSeek pot ser superior. Per a l'escriptura creativa, la consulta general i les interfícies de conversa fàcils d'utilitzar, ChatGPT pot prendre la iniciativa. Cada eina serveix per a diferents propòsits, de manera que l'elecció dependrà en gran mesura del context en què s'utilitzen.

Troba una solució de cable ELV

Cables de control

Per a BMS, BUS, industrial, cable d'instrumentació.

Sistema de cablejat estructurat

Xarxa i dades, cable de fibra òptica, cable de connexió, mòduls, placa frontal

Revisió d'exposicions i esdeveniments 2024

16-18 d'abril de 2024. Fira d'energia de l'Orient Mitjà a Dubai

16-18 d'abril de 2024 Securika a Moscou

9 de maig de 2024 ESDEVENIMENT DE LLANÇAMENT DE NOUS PRODUCTES I TECNOLOGIES a Xangai

22-25 d'octubre de 2024 SECURITY CHINA a Pequín

19-20 de novembre de 2024 CONNECTED WORLD KSA


Data de publicació: 10 de febrer de 2025