Untuk BMS, BAS, Perindustrian, Kabel Instrumentasi.

Apabila Festival Musim Bunga semakin hampir, keterujaan di sekeliling DeepSeek kekal kuat. Percutian baru-baru ini menyerlahkan rasa persaingan yang ketara dalam industri teknologi, dengan ramai yang membincangkan dan menganalisis "ikan keli" ini. Silicon Valley sedang mengalami rasa krisis yang tidak pernah berlaku sebelum ini: penyokong sumber terbuka menyuarakan pendapat mereka sekali lagi, malah OpenAI sedang menilai semula sama ada strategi sumber tertutupnya adalah pilihan terbaik. Paradigma baharu kos pengiraan yang lebih rendah telah mencetuskan tindak balas berantai dalam kalangan gergasi cip seperti Nvidia, yang membawa kepada merekodkan kerugian nilai pasaran sehari dalam sejarah pasaran saham AS, sementara agensi kerajaan sedang menyiasat pematuhan cip yang digunakan oleh DeepSeek. Di tengah-tengah ulasan bercampur-campur DeepSeek di luar negara, di dalam negara, ia mengalami pertumbuhan yang luar biasa. Selepas pelancaran model R1, apl yang berkaitan telah menyaksikan lonjakan trafik, menunjukkan bahawa pertumbuhan dalam sektor aplikasi akan memacu keseluruhan ekosistem AI ke hadapan. Aspek positifnya ialah DeepSeek akan meluaskan kemungkinan aplikasi, menunjukkan bahawa bergantung pada ChatGPT tidak akan semahal itu pada masa hadapan. Peralihan ini telah dicerminkan dalam aktiviti terbaru OpenAI, termasuk penyediaan model penaakulan yang dipanggil o3-mini untuk membebaskan pengguna sebagai tindak balas kepada DeepSeek R1, serta peningkatan seterusnya yang menjadikan rantaian pemikiran o3-mini awam. Ramai pengguna luar negara menyatakan terima kasih kepada DeepSeek atas perkembangan ini, walaupun rantaian pemikiran ini berfungsi sebagai ringkasan.
Secara optimistik, terbukti bahawa DeepSeek menyatukan pemain domestik. Dengan tumpuannya untuk mengurangkan kos latihan, pelbagai pengeluar cip huluan, penyedia awan perantaraan dan banyak syarikat permulaan secara aktif menyertai ekosistem, meningkatkan kecekapan kos untuk menggunakan model DeepSeek. Menurut kertas DeepSeek, latihan lengkap model V3 hanya memerlukan 2.788 juta jam GPU H800, dan proses latihan adalah sangat stabil. Seni bina MoE (Campuran Pakar) adalah penting untuk mengurangkan kos pra-latihan dengan faktor sepuluh berbanding Llama 3 dengan 405 bilion parameter. Pada masa ini, V3 ialah model pertama yang diiktiraf awam yang menunjukkan keterlaluan yang tinggi di MoE. Selain itu, MLA (Multi Layer Attention) berfungsi secara sinergi, terutamanya dalam aspek penaakulan. "Semakin jarang MoE, semakin besar saiz kelompok yang diperlukan semasa membuat penaakulan untuk menggunakan sepenuhnya kuasa pengiraan, dengan saiz KVCache menjadi faktor pengehad utama; MLA mengurangkan saiz KVCache dengan ketara," kata seorang penyelidik dari Chuanjing Technology dalam analisis untuk Kajian Teknologi AI. Secara keseluruhannya, kejayaan DeepSeek terletak pada gabungan pelbagai teknologi, bukan hanya satu. Orang dalam industri memuji keupayaan kejuruteraan pasukan DeepSeek, mencatatkan kecemerlangan mereka dalam latihan selari dan pengoptimuman pengendali, mencapai hasil pecah tanah dengan memperhalusi setiap butiran. Pendekatan sumber terbuka DeepSeek menyemarakkan lagi pembangunan keseluruhan model besar, dan dijangkakan jika model serupa berkembang menjadi imej, video dan banyak lagi, ini akan merangsang permintaan dengan ketara di seluruh industri.
Peluang untuk Perkhidmatan Penaakulan Pihak Ketiga
Data menunjukkan bahawa sejak dikeluarkan, DeepSeek telah mengakru 22.15 juta pengguna aktif harian (DAU) dalam masa 21 hari sahaja, mencapai 41.6% pangkalan pengguna ChatGPT dan melepasi 16.95 juta pengguna aktif harian Doubao, sekali gus menjadi aplikasi yang paling pesat berkembang di seluruh dunia, mendahului Apple App Store/wilayah di 157 negara. Walau bagaimanapun, semasa pengguna berpusu-pusu, penggodam siber telah menyerang aplikasi DeepSeek tanpa henti, menyebabkan tekanan yang ketara pada pelayannya. Penganalisis industri percaya ini sebahagiannya disebabkan oleh DeepSeek menggunakan kad untuk latihan sementara kekurangan kuasa pengiraan yang mencukupi untuk penaakulan. Orang dalam industri memaklumkan Kajian Teknologi AI, "Isu pelayan yang kerap boleh diselesaikan dengan mudah dengan mengenakan bayaran atau pembiayaan untuk membeli lebih banyak mesin; akhirnya, ia bergantung pada keputusan DeepSeek." Ini menunjukkan pertukaran dalam memfokuskan pada teknologi berbanding pengeluaran. DeepSeek sebahagian besarnya bergantung pada kuantum kuantum untuk sara diri, setelah menerima sedikit pembiayaan luaran, mengakibatkan tekanan aliran tunai yang agak rendah dan persekitaran teknologi yang lebih tulen. Pada masa ini, memandangkan masalah yang disebutkan di atas, sesetengah pengguna menggesa DeepSeek di media sosial untuk meningkatkan ambang penggunaan atau memperkenalkan ciri berbayar untuk meningkatkan keselesaan pengguna. Selain itu, pembangun telah mula menggunakan API rasmi atau API pihak ketiga untuk pengoptimuman. Walau bagaimanapun, platform terbuka DeepSeek baru-baru ini mengumumkan, "Sumber pelayan semasa adalah terhad, dan pengecasan semula perkhidmatan API telah digantung."
Ini sudah pasti membuka lebih banyak peluang untuk vendor pihak ketiga dalam sektor infrastruktur AI. Baru-baru ini, banyak gergasi awan domestik dan antarabangsa telah melancarkan API model DeepSeek—gergasi luar negara Microsoft dan Amazon adalah antara yang pertama menyertainya pada penghujung Januari. Pemimpin domestik, Huawei Cloud, membuat langkah pertama, mengeluarkan perkhidmatan penaakulan DeepSeek R1 dan V3 dengan kerjasama Aliran berasaskan Silikon pada 1 Februari. Laporan daripada Kajian Teknologi AI menunjukkan bahawa perkhidmatan Aliran berasaskan Silikon telah menyaksikan kemasukan pengguna, dengan berkesan "menghancurkan" platform. Tiga syarikat teknologi besar—BAT (Baidu, Alibaba, Tencent) dan ByteDance—juga mengeluarkan tawaran kos rendah dan masa terhad mulai 3 Februari, mengingatkan perang harga vendor awan tahun lepas yang dicetuskan oleh pelancaran model DeepSeek V2, di mana DeepSeek mula digelar sebagai "pemborong harga". Tindakan panik vendor awan menyuarakan hubungan kukuh sebelum ini antara Microsoft Azure dan OpenAI, di mana pada tahun 2019, Microsoft membuat pelaburan besar $1 bilion dalam OpenAI dan memperoleh faedah selepas pelancaran ChatGPT pada tahun 2023. Walau bagaimanapun, hubungan rapat ini mula renggang selepas Llama sumber terbuka Meta, membolehkan vendor lain di luar ekosistem Microsoft Azure bersaing dengan model besar Microsoft Azure. Dalam hal ini, DeepSeek bukan sahaja telah mengatasi ChatGPT dari segi kepanasan produk tetapi juga telah memperkenalkan model sumber terbuka berikutan keluaran o1, serupa dengan keterujaan yang menyelubungi kebangkitan semula GPT-3 oleh Llama.
Pada hakikatnya, penyedia awan juga meletakkan diri mereka sebagai pintu masuk trafik untuk aplikasi AI, bermakna hubungan yang lebih mendalam dengan pembangun diterjemahkan kepada kelebihan awalan. Laporan menunjukkan bahawa Baidu Smart Cloud mempunyai lebih 15,000 pelanggan yang menggunakan model DeepSeek melalui platform Qianfan pada hari pelancaran model tersebut. Selain itu, beberapa firma yang lebih kecil menawarkan penyelesaian, termasuk Aliran berasaskan Silikon, Teknologi Luchen, Teknologi Chuanjing dan pelbagai pembekal AI Infra yang telah melancarkan sokongan untuk model DeepSeek. Kajian Teknologi AI telah mengetahui bahawa peluang pengoptimuman semasa untuk penempatan setempat DeepSeek terutamanya wujud dalam dua bidang: satu ialah mengoptimumkan ciri-ciri jarang model MoE menggunakan pendekatan penaakulan campuran untuk menggunakan 671 bilion parameter model MoE secara tempatan sambil menggunakan inferens GPU/CPU hibrid. Selain itu, pengoptimuman MLA adalah penting. Walau bagaimanapun, dua model DeepSeek masih menghadapi beberapa cabaran dalam pengoptimuman penggunaan. "Disebabkan saiz model dan banyak parameter, pengoptimuman sememangnya kompleks, terutamanya untuk penggunaan tempatan yang mana mencapai keseimbangan optimum antara prestasi dan kos akan menjadi mencabar," kata seorang penyelidik dari Chuanjing Technology. Halangan paling ketara terletak pada mengatasi had kapasiti memori. "Kami mengguna pakai pendekatan kerjasama heterogen untuk menggunakan sepenuhnya CPU dan sumber pengiraan lain, meletakkan hanya bahagian tidak dikongsi matriks MoE yang jarang pada CPU/DRAM untuk pemprosesan menggunakan pengendali CPU berprestasi tinggi, manakala bahagian padat kekal pada GPU," jelasnya lagi. Laporan menunjukkan bahawa rangka kerja sumber terbuka Chuanjing KTransformers terutamanya menyuntik pelbagai strategi dan pengendali ke dalam pelaksanaan Transformers asal melalui templat, dengan ketara meningkatkan kelajuan inferens menggunakan kaedah seperti CUDAGraph. DeepSeek telah mencipta peluang untuk pemula ini, kerana faedah pertumbuhan semakin ketara; banyak firma telah melaporkan pertumbuhan pelanggan yang ketara selepas melancarkan DeepSeek API, menerima pertanyaan daripada pelanggan terdahulu yang mencari pengoptimuman. Orang dalam industri telah menyatakan, "Pada masa lalu, kumpulan pelanggan yang agak mantap sering dikunci dalam perkhidmatan piawai syarikat yang lebih besar, terikat rapat dengan kelebihan kos mereka disebabkan oleh skala. Walau bagaimanapun, selepas menyelesaikan penggunaan DeepSeek-R1/V3 sebelum Festival Musim Bunga, kami tiba-tiba menerima permintaan kerjasama daripada beberapa pelanggan terkenal, malah pelanggan yang tidak aktif sebelum ini memulakan hubungan untuk memperkenalkan perkhidmatan DeepSeek kami." Pada masa ini, nampaknya DeepSeek menjadikan prestasi inferens model semakin kritikal, dan dengan penggunaan model besar yang lebih luas, ini akan terus mempengaruhi pembangunan dalam industri AI Infra dengan ketara. Jika model peringkat DeepSeek boleh digunakan secara tempatan pada kos yang rendah, ia akan sangat membantu usaha transformasi digital kerajaan dan perusahaan. Walau bagaimanapun, cabaran berterusan, kerana sesetengah pelanggan mungkin mempunyai jangkaan yang tinggi mengenai keupayaan model yang besar, menjadikannya lebih jelas bahawa mengimbangi prestasi dan kos menjadi penting dalam penggunaan praktikal.
Untuk menilai sama ada DeepSeek lebih baik daripada ChatGPT, adalah penting untuk memahami perbezaan utama, kekuatan dan kes penggunaannya. Berikut ialah perbandingan menyeluruh:
Ciri/Aspek | DeepSeek | SembangGPT |
---|---|---|
Pemilikan | Dibangunkan oleh syarikat China | Dibangunkan oleh OpenAI |
Model Sumber | Sumber terbuka | Hak milik |
kos | Percuma untuk digunakan; pilihan akses API yang lebih murah | Harga langganan atau bayar setiap penggunaan |
Penyesuaian | Sangat boleh disesuaikan, membolehkan pengguna mengubah suai dan membinanya | Penyesuaian terhad tersedia |
Prestasi dalam Tugasan Khusus | Cemerlang dalam bidang tertentu seperti analisis data dan perolehan maklumat | Serbaguna dengan prestasi kukuh dalam penulisan kreatif dan tugas perbualan |
Sokongan Bahasa | Tumpuan yang kuat pada bahasa dan budaya Cina | Sokongan bahasa yang luas tetapi mengutamakan AS |
Kos Latihan | Kos latihan yang lebih rendah, dioptimumkan untuk kecekapan | Kos latihan yang lebih tinggi, memerlukan sumber pengiraan yang banyak |
Variasi Respons | Mungkin menawarkan respons yang berbeza, mungkin dipengaruhi oleh konteks geopolitik | Jawapan yang konsisten berdasarkan data latihan |
Khalayak Sasaran | Ditujukan kepada pembangun dan penyelidik yang mahukan fleksibiliti | Ditujukan kepada pengguna umum yang mencari keupayaan perbualan |
Kes Penggunaan | Lebih cekap untuk penjanaan kod dan tugasan pantas | Sesuai untuk menjana teks, menjawab pertanyaan dan terlibat dalam dialog |
Perspektif Kritikal tentang "Mengganggu Nvidia"
Pada masa ini, selain daripada Huawei, beberapa pengeluar cip domestik seperti Moore Threads, Muxi, Biran Technology dan Tianxu Zhixin juga sedang menyesuaikan diri dengan dua model DeepSeek. Pengilang cip memberitahu Kajian Teknologi AI, "Struktur DeepSeek menunjukkan inovasi, namun ia kekal sebagai LLM. Penyesuaian kami kepada DeepSeek tertumpu terutamanya pada aplikasi penaakulan, menjadikan pelaksanaan teknikal agak mudah dan pantas." Walau bagaimanapun, pendekatan KPM memerlukan permintaan yang lebih tinggi dari segi penyimpanan dan pengedaran, ditambah pula dengan memastikan keserasian apabila menggunakan cip domestik, membentangkan pelbagai cabaran kejuruteraan yang memerlukan penyelesaian semasa penyesuaian. "Pada masa ini, kuasa pengiraan domestik tidak sepadan dengan Nvidia dalam kebolehgunaan dan kestabilan, memerlukan penyertaan kilang asal untuk persediaan persekitaran perisian, penyelesaian masalah dan pengoptimuman prestasi asas," kata seorang pengamal industri berdasarkan pengalaman praktikal. Pada masa yang sama, "Disebabkan skala parameter DeepSeek R1 yang besar, kuasa pengiraan domestik memerlukan lebih banyak nod untuk penyejajaran. Selain itu, spesifikasi perkakasan domestik masih agak ketinggalan; contohnya, Huawei 910B pada masa ini tidak dapat menyokong inferens FP8 yang diperkenalkan oleh DeepSeek." Salah satu sorotan model DeepSeek V3 ialah pengenalan rangka kerja latihan ketepatan campuran FP8, yang telah disahkan secara berkesan pada model yang sangat besar, menandakan pencapaian yang ketara. Sebelum ini, pemain utama seperti Microsoft dan Nvidia mencadangkan kerja berkaitan, tetapi keraguan berlarutan dalam industri berkenaan kebolehlaksanaan. Difahamkan bahawa berbanding INT8, kelebihan utama FP8 ialah pengkuantitian selepas latihan boleh mencapai ketepatan hampir tanpa kerugian sambil meningkatkan kelajuan inferens dengan ketara. Apabila dibandingkan dengan FP16, FP8 boleh merealisasikan sehingga dua kali pecutan pada H20 Nvidia dan lebih 1.5 kali pecutan pada H100. Terutama, apabila perbincangan mengenai arah aliran kuasa pengiraan domestik serta model domestik mendapat momentum, spekulasi tentang sama ada Nvidia boleh terganggu, dan sama ada parit CUDA boleh dipintas, semakin berleluasa. Satu fakta yang tidak dapat dinafikan ialah DeepSeek sememangnya telah menyebabkan kejatuhan besar dalam nilai pasaran Nvidia, tetapi anjakan ini menimbulkan persoalan mengenai integriti kuasa pengiraan mewah Nvidia. Naratif yang diterima sebelum ini mengenai pengumpulan pengiraan dipacu modal sedang dicabar, namun masih sukar bagi Nvidia untuk diganti sepenuhnya dalam senario latihan. Analisis penggunaan mendalam DeepSeek terhadap CUDA menunjukkan bahawa fleksibiliti—seperti menggunakan SM untuk komunikasi atau memanipulasi kad rangkaian secara langsung—tidak sesuai untuk ditampung oleh GPU biasa. Sudut pandangan industri menekankan bahawa parit Nvidia merangkumi keseluruhan ekosistem CUDA dan bukannya CUDA sendiri, dan arahan PTX (Pelaksanaan Benang Selari) yang DeepSeek gunakan masih menjadi sebahagian daripada ekosistem CUDA. "Dalam jangka pendek, kuasa pengiraan Nvidia tidak boleh dipintas-ini amat jelas dalam latihan; walau bagaimanapun, menggunakan kad domestik untuk penaakulan akan menjadi lebih mudah, jadi kemajuan mungkin akan menjadi lebih cepat. Penyesuaian kad domestik terutamanya tertumpu pada inferens; belum ada sesiapa yang berjaya melatih model prestasi DeepSeek pada kad domestik pada skala, "kata seorang penganalisis Teknologi kepada AI Review. Secara keseluruhan, dari sudut inferens, keadaan adalah menggalakkan untuk cip model besar domestik. Peluang untuk pengeluar cip domestik dalam bidang inferens lebih jelas disebabkan oleh keperluan latihan yang terlalu tinggi, yang menghalang kemasukan. Penganalisis berpendapat bahawa hanya menggunakan kad inferens domestik sudah memadai; jika perlu, memperoleh mesin tambahan boleh dilaksanakan, manakala model latihan menimbulkan cabaran unik—menguruskan peningkatan bilangan mesin boleh membebankan, dan kadar ralat yang lebih tinggi boleh memberi kesan negatif kepada hasil latihan. Latihan juga mempunyai keperluan skala kluster yang khusus, manakala tuntutan ke atas kluster untuk inferens tidak begitu ketat, sekali gus memudahkan keperluan GPU. Pada masa ini, prestasi kad H20 tunggal Nvidia tidak mengatasi prestasi Huawei atau Cambrian; kekuatannya terletak pada kelompok. Berdasarkan kesan keseluruhan ke atas pasaran kuasa pengiraan, pengasas Luchen Technology, You Yang, menyatakan dalam temu bual dengan AI Technology Review, "DeepSeek mungkin melemahkan penubuhan dan penyewaan kluster pengiraan latihan ultra-besar buat sementara waktu. Dalam jangka masa panjang, dengan mengurangkan dengan ketara kos yang berkaitan dengan latihan model besar, penaakulan dan aplikasi, permintaan pasaran berkemungkinan meningkat. Oleh itu, permintaan pasaran akan terus meningkat berdasarkan permintaan AI yang berterusan. pasaran kuasa pengiraan." Selain itu, "Permintaan DeepSeek yang semakin meningkat untuk perkhidmatan penaakulan dan penalaan halus lebih serasi dengan landskap pengiraan domestik, di mana kapasiti tempatan agak lemah, membantu mengurangkan pembaziran daripada sumber terbiar selepas penubuhan kelompok; ini mewujudkan peluang yang berdaya maju untuk pengeluar merentas pelbagai peringkat ekosistem pengiraan domestik." Luchen Technology telah bekerjasama dengan Huawei Cloud untuk melancarkan API penaakulan siri DeepSeek R1 dan perkhidmatan pengimejan awan berdasarkan kuasa pengiraan domestik. You Yang menyatakan keyakinan tentang masa depan: "DeepSeek menanamkan keyakinan dalam penyelesaian yang dihasilkan dalam negara, menggalakkan lebih semangat dan pelaburan dalam keupayaan pengiraan domestik pada masa hadapan."

Kesimpulan
Sama ada DeepSeek adalah "lebih baik" daripada ChatGPT bergantung pada keperluan dan objektif khusus pengguna. Untuk tugas yang memerlukan fleksibiliti, kos rendah dan penyesuaian, DeepSeek mungkin lebih baik. Untuk penulisan kreatif, pertanyaan am dan antara muka perbualan yang mesra pengguna, ChatGPT boleh memimpin. Setiap alat mempunyai tujuan yang berbeza, jadi pilihan akan sangat bergantung pada konteks di mana ia digunakan.
Kabel Kawalan
Sistem Pengkabelan Berstruktur
Rangkaian&Data, Kabel Gentian Optik, Kord Tampalan, Modul, Plat Muka
16-18 Apr, 2024 Tenaga Timur Tengah di Dubai
April 16-18, 2024 Securika di Moscow
9 Mei, 2024 ACARA PELANCARAN PRODUK & TEKNOLOGI BAHARU di Shanghai
22-25 Okt, 2024 SECURITY CHINA di Beijing
19-20 Nov. 2024 KSA DUNIA BERHUBUNG
Masa siaran: Feb-10-2025