Untuk BMS, bas, perindustrian, kabel instrumentasi.

Elon Musk dan pasukan XAI secara rasmi melancarkan versi terkini Grok, Grok3, semasa livestream. Sebelum acara ini, sejumlah besar maklumat yang berkaitan, ditambah pula dengan Hype Promosi 24/7 Musk, menaikkan jangkaan global untuk Grok3 ke tahap yang belum pernah terjadi sebelumnya. Hanya seminggu yang lalu, Musk dengan yakin dinyatakan semasa livestream sambil mengulas mengenai Deepseek R1, "Xai akan melancarkan model AI yang lebih baik." Dari data yang dibentangkan secara langsung, Grok3 telah dilaporkan melepasi semua model arus perdana semasa dalam tanda aras untuk matematik, sains, dan pengaturcaraan, dengan Musk walaupun mendakwa bahawa Grok3 akan digunakan untuk tugas -tugas pengiraan yang berkaitan dengan misi SpaceX Mars, meramalkan "penemuan di peringkat Nobel dalam tempoh tiga tahun." Walau bagaimanapun, ini hanya dakwaan Musk. Selepas pelancaran, saya menguji versi beta terkini Grok3 dan menimbulkan soalan trik klasik untuk model besar: "Yang lebih besar, 9.11 atau 9.9?" Malangnya, tanpa sebarang kelayakan atau tanda, grok3 yang paling bijak masih tidak dapat menjawab soalan ini dengan betul. Grok3 gagal mengenal pasti makna soalan dengan tepat.
Ujian ini dengan cepat menarik perhatian dari banyak kawan, dan secara kebetulan, pelbagai ujian serupa di luar negara telah menunjukkan Grok3 bergelut dengan soalan asas fizik/matematik seperti "bola mana yang pertama kali jatuh dari menara Pisa?" Oleh itu, ia telah dilabelkan sebagai "seorang jenius yang tidak mahu menjawab soalan mudah."

Grok3 adalah baik, tetapi ia tidak lebih baik daripada R1 atau O1-Pro.
Grok3 mengalami "kegagalan" pada banyak ujian pengetahuan umum dalam amalan. Semasa acara pelancaran XAI, Musk menunjukkan menggunakan Grok3 untuk menganalisis kelas watak dan kesan dari laluan permainan Exile 2, yang dikatakannya sering bermain, tetapi kebanyakan jawapan yang disediakan oleh Grok3 tidak betul. Musk semasa livestream tidak melihat isu yang jelas ini.
Kesilapan ini bukan sahaja memberikan bukti lanjut untuk netizens luar negara untuk mengejek Musk untuk "mencari pengganti" dalam permainan tetapi juga menimbulkan kebimbangan yang signifikan mengenai kebolehpercayaan Grok3 dalam aplikasi praktikal. Bagi "jenius," tanpa mengira keupayaannya yang sebenarnya, kebolehpercayaannya dalam senario aplikasi yang sangat kompleks, seperti tugas -tugas penerokaan Marikh, masih diragui.
Pada masa ini, banyak penguji yang menerima akses kepada Grok3 minggu yang lalu, dan mereka yang baru saja menguji keupayaan model selama beberapa jam semalam, semuanya menunjukkan kesimpulan yang sama: "Grok3 adalah baik, tetapi ia tidak lebih baik daripada R1 atau O1-Pro."

Perspektif kritikal mengenai "mengganggu nvidia"
Dalam PPT yang dibentangkan secara rasmi semasa pembebasan, Grok3 ditunjukkan sebagai "jauh ke depan" di arena chatbot, tetapi teknik grafik yang digunakan dengan bijak ini: paksi menegak pada papan pendahulu hanya disenaraikan hasil dalam julat skor 1400-1300, menjadikan perbezaan 1% asal dalam keputusan ujian kelihatan sangat signifikan dalam persembahan ini.

Dalam hasil pemarkahan model sebenar, Grok3 hanya 1-2% menjelang Deepseek R1 dan GPT-4.0, yang sepadan dengan pengalaman ramai pengguna dalam ujian praktikal yang mendapati "tidak ada perbezaan yang ketara." Grok3 hanya melebihi penggantinya sebanyak 1%-2%.

Walaupun Grok3 telah menjaringkan lebih tinggi daripada semua model yang diuji secara umum, ramai yang tidak mengambil serius ini: selepas semua, Xai sebelum ini telah dikritik kerana "skor manipulasi" dalam era Grok2. Sebagai papan pendahulu yang dihukum dengan gaya panjang, skornya sangat menurun, orang dalam industri terkemuka sering mengkritik fenomena "pemarkahan yang tinggi tetapi keupayaan rendah."
Sama ada melalui papan "manipulasi" atau cara reka bentuk dalam ilustrasi, mereka mendedahkan obsesi Xai dan Musk dengan tanggapan "memimpin pek" dalam keupayaan model. Musk membayar harga yang curam untuk margin ini: Semasa pelancaran, dia membanggakan menggunakan 200,000 H100 GPU (mendakwa "lebih daripada 100,000" semasa livestream) dan mencapai jumlah masa latihan 200 juta jam. Ini menyebabkan beberapa orang percaya ia mewakili satu lagi rahmat penting bagi industri GPU dan mempertimbangkan kesan DeepSeek terhadap sektor ini sebagai "bodoh." Terutama, ada yang percaya bahawa kuasa pengiraan semata -mata akan menjadi masa depan latihan model.
Walau bagaimanapun, sesetengah netizens membandingkan penggunaan 2000 H800 GPU selama dua bulan untuk menghasilkan DeepSeek V3, mengira bahawa penggunaan kuasa latihan sebenar Grok3 adalah 263 kali dari V3. Jurang antara Deepseek V3, yang menjaringkan 1402 mata, dan Grok3 hanya di bawah 100 mata. Berikutan pelepasan data ini, ramai yang menyedari bahawa di sebalik tajuk Grok3 sebagai "terkuat di dunia" terletak kesan utiliti marginal yang jelas -logik model yang lebih besar yang menghasilkan prestasi yang lebih kukuh telah mula menunjukkan pulangan yang semakin berkurangan.

Walaupun dengan "pemarkahan yang tinggi tetapi keupayaan rendah," Grok2 mempunyai banyak data pihak pertama yang berkualiti tinggi dari platform X (Twitter) untuk menyokong penggunaan. Walau bagaimanapun, dalam latihan Grok3, Xai secara semulajadi menemui "siling" yang Openai kini menghadapi -kekurangan data latihan premium dengan cepat mendedahkan utiliti marginal keupayaan model.
Pemaju Grok3 dan Musk mungkin yang pertama memahami dan mengenal pasti fakta -fakta ini dengan mendalam, itulah sebabnya Musk terus disebutkan di media sosial yang pengguna versi sedang mengalami sekarang adalah "masih hanya beta" dan bahawa "versi penuh akan dikeluarkan pada bulan -bulan akan datang." Musk telah mengambil peranan pengurus produk Grok3, yang mencadangkan pengguna memberikan maklum balas mengenai pelbagai isu yang dihadapi di bahagian komen.
Walau bagaimanapun, dalam sehari, prestasi Grok3 sudah pasti menimbulkan penggera bagi mereka yang berharap untuk bergantung kepada "otot pengiraan besar-besaran" untuk melatih model besar yang lebih kuat: berdasarkan maklumat Microsoft yang tersedia secara terbuka, Openai's GPT-4 mempunyai saiz parameter parameter 1.8 trilion, lebih dari sepuluh kali GPT-3. Khabar angin mencadangkan bahawa saiz parameter GPT-4.5 mungkin lebih besar.
Memandangkan saiz parameter model melambung, kos latihan juga melonjak. Dengan kehadiran Grok3, pesaing seperti GPT-4.5 dan lain-lain yang ingin meneruskan "membakar wang" untuk mencapai prestasi model yang lebih baik melalui saiz parameter mesti mempertimbangkan siling yang kini jelas kelihatan dan merenungkan bagaimana untuk mengatasinya. Pada masa ini, Ilya Sutskever, bekas ketua saintis di OpenAI, sebelum ini telah menyatakan pada Disember lalu, "Pra-latihan yang kita kenal akan berakhir," yang telah muncul semula dalam perbincangan, mendorong usaha untuk mencari jalan sebenar untuk melatih model besar.

Pandangan Ilya telah membunyikan penggera dalam industri. Beliau secara tepat meramalkan keletihan data baru yang boleh diakses, yang membawa kepada situasi di mana prestasi tidak dapat terus dipertingkatkan melalui pengambilalihan data, menyamakannya dengan keletihan bahan api fosil. Beliau menyatakan bahawa "seperti minyak, kandungan yang dihasilkan oleh manusia di Internet adalah sumber yang terhad." Dalam ramalan Sutskever, model generasi akan datang, selepas latihan, akan memiliki "autonomi sejati" dan keupayaan penalaran "serupa dengan otak manusia."
Tidak seperti model pra-terlatih hari ini yang terutamanya bergantung kepada pencocokan kandungan (berdasarkan kandungan model yang telah dipelajari sebelumnya), sistem AI masa depan akan dapat belajar dan mewujudkan metodologi untuk menyelesaikan masalah dengan cara yang sama dengan "pemikiran" otak manusia. Manusia boleh mencapai kecekapan asas dalam subjek dengan hanya kesusasteraan profesional asas, sementara model besar AI memerlukan berjuta-juta titik data untuk mencapai keberkesanan peringkat kemasukan yang paling asas. Walaupun kata -kata itu berubah sedikit, soalan -soalan asas ini mungkin tidak difahami dengan betul, menggambarkan bahawa model itu tidak benar -benar diperbaiki dalam kecerdasan: soalan -soalan asas namun tidak dapat disangkal yang disebutkan pada permulaan artikel mewakili contoh yang jelas tentang fenomena ini.

Kesimpulan
Walau bagaimanapun, di luar kekerasan, jika Grok3 sememangnya berjaya mendedahkan kepada industri bahawa "model pra-terlatih menghampiri mereka," ia akan membawa implikasi yang signifikan untuk bidang ini.
Mungkin selepas kegilaan di sekitar Grok3 secara beransur-ansur berkurangan, kami akan menyaksikan lebih banyak kes seperti contoh Fei-Fei Li tentang "menala model berprestasi tinggi pada dataset tertentu untuk hanya $ 50," akhirnya menemui jalan sebenar ke AGI.
Kawalan kabel
Sistem kabel berstruktur
Rangkaian & data, kabel serat optik, tali patch, modul, faceplate
Apr.16th-18th, 2024 Middle-East-Energy di Dubai
Apr.16th-18th, 2024 Securika di Moscow
May.9th, 2024 Acara Pelancaran Produk & Teknologi Baru di Shanghai
Okt.22-25, 2024 Keselamatan China di Beijing
Nov.19-20, 2024 KSA Dunia Bersambung
Masa Post: Feb-19-2025