Huang Renxun: Nvidia'nın AI bilgi işlem gücü %10 indirimle satıldı

Yazar | Ling Zijun, Li Yuan

Editör | Jing Yu

Görsel kaynağı: Unbounded AI tarafından oluşturuldu

Deri bir ceket giyen Huang Renxun, mavi bir sörf tahtasının üzerinde durdu ve birkaç sörf pozu verdi.

Bu, Amerika Birleşik Devletleri'ndeki "İnternet Kırmızı Festivali" VidCon değil, Amerika Birleşik Devletleri'nde iyi bilinen bir veri platformu olan Snowflake'in geliştirici konferansından bir sahne.

26 Haziran yerel saatinde, Nvidia'nın kurucusu Huang Renxun ve Snowflake CEO'su Frank Slootman "kurumsal kullanıcılara üretken yapay zekanın nasıl getirileceğini" tartıştılar. Ev sahibi, şu anda yatırım ajansı Conviction'ın kurucusu olan eski Greylock GP'dir.

Toplantıda, "ev sahibi" Frank'in olgun ve ihtiyatlı profesyonel yöneticisi ile karşılaştırıldığında, "Derideki Vaftiz Babası" her zamanki gibi şaşırtıcıydı, sadece iki taraf arasındaki işbirliğinin "Biz Aşığız, Savaşçı değiliz" ( Biz Aşığız, Savaşçı Değiliz), Snowflake için sağlanan eğitimli modelin müşterilere "% 10 indirim" ile eşdeğer olması daha da şaka.

Aynı gün, Nvidia ve Snowflake birlikte büyük bir hamle daha yayınladılar: Dünyanın 1 numaralı çip şirketi, ortak bir iş birliği başlatmak için en popüler bulut veri platformuyla işbirliği yaptı. **Snowflake kullanıcıları, Nvidia'nın önceden eğitilmiş AI modelini doğrudan kullanarak kendi şirketlerinin verilerini platformdan ayrılmadan bulut platformunda analiz edebilir ve kendi verileri için "AI uygulamaları" geliştirebilir. **

Huang Renxun, "Mevcut büyük değişiklikler veri + AI algoritması + bilgi işlem motorundan geliyor. İşbirliğimiz sayesinde bu üç noktayı bir araya getirebiliriz." dedi.

Konuşma Noktaları:

  • Geniş dil modeli + işletmeye özgü veritabanı = belirli sorunlar için yapay zeka uygulaması;
  • Eskiden Veri İşe gidiyordu, ama şimdi İş Veriye gidiyor, veri adacıklarından kaçınarak bilgi işlemin verilerin bulunduğu yere gitmesine izin veriyor;
  • Nvidia tarafından sağlanan ön eğitim modeli, Nvidia AI fabrikasında on milyonlarca dolarlık bir maliyetle eğitildi, bu nedenle Snowflake'teki bilgi işlem motorunu çağırmak zaten "% 0,5 indirimli";
  • Yazılım 3.0 çağında, modellere ve veritabanlarına dayalı olarak, işletmeler birkaç gün içinde kendi özel uygulamalarını oluşturabilir;
  • Gelecekte işletmeler birçok akıllı etmen üretebilecek ve bunları çalıştırabilecek;
  • İşletmeler için asıl sorun, karma yapılandırılmış ve yapılandırılmamış verilerin nasıl mobilize edileceğidir. Bu, iş modelinin güncellenmesine yol açabilir.

Geek Park tarafından düzenlenen iki taraf arasındaki diyaloğun ana içeriği aşağıdadır:

01 İşbirliği hakkında konuşun: en iyi bilgi işlem motorunu en değerli verilere getirin

Frank:

NVIDIA şu anda tarihte önemli bir rol oynamaktadır. Bizim için, verileri ve ilişkileri büyük işletmelere getirebilmek. Etkin bir şekilde kullanmak için bu teknolojiyi ve tüm hizmet yığınını etkinleştirmemiz gerekiyor. Bunu "cennette yapılan bir maç" olarak tanımlamak istemiyorum ama meslekten olmayan biri için bu fırsat kapısından girmek için iyi bir fırsat.

Huang Renxun:

Biz sevgiliyiz, rakip değil. **Dünyanın en değerli bilgi işlem motorunu dünyanın en değerli verilerine getirmek istiyoruz. Geriye dönüp baktığımda uzun süredir çalışıyorum ama o kadar da yaşlı değilim. Frank, sen daha yaşlısın (gülüyor). **

Son zamanlarda, veriler çok büyük ve iyi bilinen nedenlerden dolayı veriler değerli. Güvenli olmalı. Verileri taşımak zordur ve verilerin ağırlığı gerçektir. Bu nedenle, bilgi işlem motorumuzu Snowflake'e taşımak bizim için çok daha kolaydı. Ortaklığımız Snowflake'i hızlandırmakla ilgili ama aynı zamanda AI'yı Snowflake'e getirmekle ilgili. **

**Çekirdek, veri + yapay zeka algoritması + bilgi işlem motorunun birleşimidir, ortaklığımız üç şeyi bir araya getirir. **İnanılmaz derecede değerli veriler, inanılmaz derecede harika yapay zeka, inanılmaz derecede harika hesaplama motoru.

Birlikte yapabileceğimiz şey, müşterilerin özel verilerini almalarına ve bunları yapay zeka uygulamaları yazmak için kullanmalarına yardımcı olmaktır. Biliyorsunuz, buradaki büyük atılım, ilk kez büyük bir dil modeli geliştirebilmenizdir. Onu verilerinizin önüne koyarsınız ve sonra verilerinizle bir insanla konuşur gibi konuşursunuz ve bu veriler büyük bir dil modeline dönüştürülür.

Büyük bir dil modeli ile bir bilgi tabanının birleşimi, bir yapay zeka uygulamasına eşittir. ** Bu basittir, geniş bir dil modeli, herhangi bir veri bilgi tabanını bir uygulamaya dönüştürür. **

İnsanların yazdığı tüm harika uygulamaları bir düşünün. Özünde, her zaman bazı değerli veriler olmuştur. Artık önde bir sorgu motorunuz var, süper akıllı, size yanıt vermesini sağlayabilirsiniz, ancak onu bir proxy'ye de bağlayabilirsiniz, bu Langchain ve vektör veritabanlarının getirdiği çığır açıcıdır. Verileri ve büyük dil modellerini kaplayan çığır açan şeyler her yerde oluyor ve herkes bunu yapmak istiyor. Ve Frank ve ben bunu yapmana yardım edeceğiz.

02 Yazılım 3.0: Belirli bir sorunu çözmek için bir yapay zeka uygulaması oluşturun

ev sahibi:

Bir yatırımcı bu değişikliğe baktığında, yazılım 1.0, mühendisler tarafından işlevsel olarak yazılmış çok belirleyici bir koddur; yazılım 2.0, dikkatlice toplanmış, etiketlenmiş eğitim verileriyle bir sinir ağını optimize ediyor.

Siz insanlara, kendi başlarına inanılmaz derecede yetenekli olan bir dizi temel model olan Yazılım 3.0'dan yararlanmalarına yardımcı oluyorsunuz, ancak yine de kurumsal veriler ve özel veri kümeleriyle çalışmaları gerekiyor. Bu uygulamaları onlara karşı geliştirmek çok daha ucuz.

**Bu alana derinlemesine bakanlar için bir soru, altta yatan model çok genel, her şeyi yapabilir mi? Neden özel modellere ve kurumsal verilere ihtiyacımız var? **

Frank:

Yani şiir yapabilen, The Great Gatsby'nin özetlerini yapabilen, matematik problemleri çözebilen çok genelleştirilmiş modellerimiz var.

Ancak iş dünyasında bunlara ihtiyacımız yok, ihtiyacımız olan çok dar ama çok karmaşık bir veri setinde olağanüstü içgörüler elde etmek için bir Yardımcı Pilot.

İş modellerini ve iş dinamiklerini anlamamız gerekiyor. Bunun hesaplama açısından çok pahalı olması gerekmez, çünkü bir modelin milyonlarca konuda eğitilmesi gerekmez, yalnızca çok az ama derin konuları bilmesi gerekir.

Örneğin. Instacart'ın yönetim kurulundayım ve DoorDash gibi büyük müşterilerimizden biri ve sorunu olan diğer tüm işletmeler pazarlama harcamalarını artırmaya devam ediyorlar, bir müşteri geliyor, bir müşteri sipariş veriyor ve müşteri de yapmıyor. 90 gün içinde geri gelme ya da geri gelme, ki bu çok istikrarsız. Buna çalkantı diyorlar.

Bu, karmaşık sorunların analizidir çünkü bir müşterinin geri gelmemesinin birçok nedeni olabilir. İnsanlar bu soruların cevaplarını bulmak istiyor ve bu genel internette değil verilerde ve yapay zeka aracılığıyla bulunabilir. Bu, büyük değerin üretilebileceği yerlerin bir örneğidir.

ev sahibi:

Bu modeller kurumsal verilerle nasıl etkileşime girmelidir?

Huang Renxun:

Stratejimiz ve ürünlerimiz her boyutta son teknoloji önceden eğitilmiş modellerdir ve bazen daha küçük modelleri öğretmek için üretilebilmesi için çok büyük bir önceden eğitilmiş model oluşturmanız gerekir.

Ve daha küçük modeller, belki de çok düşük gecikmeyle hemen hemen her cihazda çalışabilir. Ancak, genelleme yeteneği yüksek değildir ve sıfır atış (sıfır örnek öğrenme) yeteneği daha sınırlı olabilir.

Bu nedenle, farklı tür ve boyutlarda birkaç modeliniz olabilir, ancak her durumda denetimli ince ayar yapmanız gerekir, hedeflerinize ve ilkelerinize uygun kalması için RLHF (insan geri bildirimi ile pekiştirmeli öğrenme) yapmanız gerekir. bir vektör veritabanı gibi bir şeyle büyütmek, böylece hepsi tek bir platformda bir araya geliyor. Kendi yapay zekalarını oluşturmalarına ve ardından bunu Snowflake'teki verilere bağlamalarına yardımcı olacak becerilere, bilgiye ve temel platforma sahibiz.

Şimdi, **her kurumsal müşterinin hedefi büyük bir dil modelini nasıl oluşturacağımı düşünmek olmamalı, hedefleri belirli bir sorunu çözmek için bir yapay zeka uygulamasını nasıl oluşturacağım olmalıdır. **Bu uygulamanın sonunda doğru cevabı bulması için 17 soru gerekebilir. Ve sonra, bir program yazmak istiyorum, bu bir SQL programı olabilir, bir Python programı olabilir, böylece gelecekte bunu otomatik olarak yapabilirim diyebilirsiniz.

** Sonunda size doğru cevabı verebilmesi için bu yapay zekaya rehberlik etmeniz gerekiyor. **Ancak bundan sonra 7/24 aracı (Agent) olarak çalışabilen, ilgili durumları arayan ve size önceden raporlayan bir uygulama oluşturabilirsiniz. Dolayısıyla bizim işimiz, müşterilerin güvenlik korkuluklarıyla özel ve özelleştirilmiş bu yapay zeka uygulamalarını oluşturmasına yardımcı olmaktır.

Nihayetinde, gelecekte hepimiz akıllı üreticiler olacağız, elbette çalışan istihdam edeceğiz, ancak Lang Chain, bağlantılı modeller, bilgi tabanları, diğer API'ler gibi bir şeyle oluşturulabilecek bir grup aracı oluşturacağız. bulutta konuşlandırın ve tüm Snowflake verilerine bağlayın.

Bu yapay zekaları geniş ölçekte çalıştırabilir ve bu yapay zekaları sürekli iyileştirebilirsiniz. Yani her birimiz yapay zeka yapacağız, bir yapay zeka fabrikası işleteceğiz. Müşterilerin verilerini kullanabilecekleri, modellerini eğitebilecekleri ve geliştirebilecekleri, yapay zekalarını çalıştırabilecekleri altyapıyı Snowflake'in veritabanına koyacağız, böylece Snowflake sizin veri havuzunuz ve bankanız olacak.

Hepsi kendi altın madeni verileriyle Snowflake'te yapay zeka fabrikaları çalıştıracak. amaç bu

03 "Nükleer Bomba" pahalı olsa da, modeli doğrudan kullanmak "%10 indirim" ile eşdeğerdir

Huang Renxun:

NVIDIA'da dördü dünyanın en iyi 500 süper bilgisayarı olan ve diğeri hatta olan beş yapay zeka fabrikası kurduk. Bu süper bilgisayarları eğitim öncesi modeller yapmak için kullanıyoruz. Dolayısıyla, Snowflake'te Nemo AI temel hizmetimizi kullandığınızda, Ar-Ge bir yana şimdiden on milyonlarca dolara mal olmuş, önceden eğitilmiş son teknoloji bir model elde edersiniz. Yani önceden eğitilmiştir.

Sonra, çevresinde RLHF ince ayarı için kullanılan bir sürü başka model var. Tüm bu modellerin eğitilmesi çok daha pahalıdır.

Artık önceden eğitilmiş modeli kendi özelliklerinize, korkuluklarınıza uyarladınız, sahip olmasını istediğiniz beceri türleri veya özellikler için optimize edildi, verilerinizle zenginleştirildi. Bu nedenle, bu daha uygun maliyetli bir yaklaşım olacaktır.

Daha da önemlisi, aylar içinde değil, günler içinde. Snowflake'te verilerinize bağlanan AI uygulamaları geliştirebilirsiniz.

Gelecekte hızlı bir şekilde yapay zeka uygulamaları oluşturabilmelisiniz.

Çünkü bunun şimdi gerçek zamanlı olarak gerçekleştiğini görüyoruz. ChatPDF gibi verilerle sohbet etmenize izin veren uygulamalar zaten var.

ev sahibi:

**Evet, yazılım 3.0 çağında, eğitim maliyetlerinin %95'i zaten başkaları tarafından karşılanıyor. **

Huang Renxun:

(gülüyor) Evet, %95 indirim, daha iyi bir anlaşma düşünemiyorum.

ev sahibi:

Gerçek motivasyon kaynağı bu ve bir yatırımcı olarak analitik, otomasyon, hukuk vb. alanlarda uygulamaları altı ay veya daha kısa sürede gerçek iş değeri elde eden çok genç şirketler görüyorum. Bunun bir kısmı, işletmeler için büyük bir fırsat olan bu önceden eğitilmiş modellerle başlıyor olmalarıdır.

Huang Renxun:

Her şirket, şirketinizdeki her türlü veriye bağlı yüzlerce, hatta belki 1.000 yapay zeka uygulamasına sahip olacaktır. Yani, hepimiz bu şeyleri inşa etmede iyi olmalıyız.

04 Eskiden iş arayan veriydi, şimdi veri arayan iş var

ev sahibi:

Büyük iş oyuncularından sürekli duyduğum sorulardan biri de yapay zekaya yatırım yapmalıyız, yeni bir yığına ihtiyacımız var mı? Mevcut veri yığınımızla bağlantı kurmayı nasıl düşünmeliyiz?

Frank:

Bence gelişiyor. Modeller giderek daha basit, daha güvenli ve daha iyi yönetilebilir hale geliyor. Yani, herkesin kullanacağı referans mimarinin bu olduğuna dair gerçekten net bir görüşe sahip değil miyiz? Bazıları, bazı merkezi hizmetler için ayarlara sahip olacaktır. Microsoft, Azure'da bir AI sürümüne sahiptir ve müşterilerinin çoğu Azure ile etkileşim halindedir.

**Fakat hangi modelin hakim olacağını bilmiyoruz, kullanım kolaylığı ve maliyet gibi konularda pazarın kendisini sıralayacağını düşünüyoruz. **Bu sadece başlangıç, son durum değil.

Güvenlik sektörü de dahil edilecek ve telif hakkı sorunu yeniden düzenlenecek. Artık teknolojinin büyüsüne kapıldığımıza göre, aynı zamanda gerçek problemlerle de ilgileneceğiz.

Huang Renxun:

Şimdi 60 yıldaki ilk temel bilgi işlem platformu değişimini yaşıyoruz. IBM 360 basın bültenini yeni okuduysanız, merkezi işlem birimleri, IO alt sistemleri, DMA denetleyicileri, sanal bellek, çoklu görev, ileri ve geri uyumlu ölçeklenebilir bilgi işlem hakkında bir şeyler duydunuz ve bu kavramlar, aslında hepsi 1964 ve bunlar kavramlar, son altmış yıldır CPU'ları ölçeklendirmemize yardımcı oldu.

Bu genişleme 60 yıldır devam ediyor ama artık sona erdi. Artık herkes CPU'yu ölçekleyemeyeceğimizi anlıyor ve birdenbire yazılım değişiyor. Yazılımın yazılma şekli, yazılımın çalışma şekli ve yazılımın yapabilecekleri eskisinden çok farklı. Bir önceki yazılıma yazılım 2.0 diyoruz. Şimdi yazılım 3.0.

Gerçek şu ki, **bilgi işlem temelden değişti. Aynı anda meydana gelen iki temel dinamiği görüyoruz, bu yüzden şu anda işler şiddetle sarsılıyor. **

Birincisi, artık CPU satın almaya devam edemezsiniz. Gelecek yıl başka bir grup CPU satın alırsanız, bilgi işlem veriminiz artmayacaktır. Çünkü CPU ölçeklendirmesinin sonu geldi. Bir sürü daha fazla ödeyeceksiniz ve daha fazla verim almayacaksınız. Yani, cevap, hızlandırmaya gitmeniz gerektiğidir (Nvidia Hızlandırılmış Bilgi İşlem Platformu). Turing Ödülü sahibi hızlandırma hakkında konuştu, Nvidia hızlandırmaya öncülük etti ve hızlandırılmış bilgi işlem artık burada.

Öte yandan, bilgisayarın tüm işletim sistemi köklü değişikliklere uğradı. NVIDIA AI Enterprise adlı bir katmanımız var ve içindeki veri işleme, eğitim ve muhakeme dağıtımı artık Snowflake'e entegre edildi veya entegre ediliyor. Bu nedenle, veri işlemenin başlangıcından son büyük model dağıtımına kadar, tüm arka plan Hesaplama motoru hızlandırıldı. Daha fazlasını yapabileceğiniz ve daha azıyla daha fazlasını yapabileceğiniz Kar Tanesi'ni güçlendireceğiz.

Herhangi bir buluta giderseniz, NVIDIA GPU'ların oradaki en pahalı bilgi işlem varlıkları olduğunu göreceksiniz. Ama üzerine bir iş yükü koyarsanız, bunu gerçekten hızlı yaptığımızı göreceksiniz. Sanki %95 indirim alıyorsunuz. Biz en pahalı bilgi işlem varlığıyız, ancak en uygun maliyetli TCO'yuz.

Dolayısıyla, işiniz bir iş yükü çalıştırmaksa, belki büyük bir dil modelini eğitmek, belki de büyük bir dil modelinde ince ayar yapmaksa, bunu yapmak istiyorsanız kesinlikle hızlandırın.

** Her iş yükünü hızlandırın, bu, tüm yığının yeniden şekillendirilmesidir. **İşlemciler bu nedenle değişir, işletim sistemleri bu nedenle değişir, büyük dil modelleri farklıdır, yapay zeka uygulamalarını yazma şekliniz farklıdır.

Gelecekte hepimiz uygulama yazacağız. Hepimiz kendi bağlamımızı birkaç Python komutuyla büyük bir dil modeline ve kendi veritabanımıza veya şirketin veritabanına bağlamalı ve kendi uygulamalarımızı geliştirmeliyiz. Herkes bir uygulama geliştiricisi olacak.

ev sahibi:

Ama aynı şey, yine de sizin verileriniz. Hala ince ayar yapmanız gerekiyor.

Frank:

Görünüşe göre hepimiz daha hızlı olmanın her zaman daha pahalı olduğunu hissediyoruz. Aslında birdenbire, daha hızlı daha ucuz, ki bu da biraz mantığa aykırı. Bu yüzden bazen insanlar daha ucuz olduğunu düşünerek arzı azaltmak isterler ve daha pahalı olduğu ortaya çıkar.

Bir öncekiyle bir başka çelişki de ** eskiden işe giden veri (veri işe giden) iken, şimdi iş veri arıyor (iş veriye gidiyor). ** Son altmış yıl veya daha uzun bir süredir, büyük ölçekli bilgi silolarının ortaya çıkmasına neden olan verilerin işe gitmesine izin veriyoruz. Ve bir yapay zeka fabrikasına sahip olmak istiyorsanız, önceki yöntemi kullanmak çok zor olacaktır. Bilgi işlemi, verinin olduğu yere getirmeliyiz. Bence şu anda yaptığımız doğru yol.

05 İşletmeler en hızlı ve en yüksek değeri nasıl elde edebilir

Frank:

En hızlı olmak ve en çok değeri elde etmek aslında çok farklı iki sorun.

En hızlıysa, **yakında yapay zeka ile geliştirilmiş arama yönteminin veritabanının her yerinde çevrimiçi olduğunu göreceksiniz, çünkü bu eklenmesi en kolay işlevdir. **Okuma yazma bilmeyen bir kişinin bile artık verilerden değerli bilgiler elde etmesi inanılmaz, etkileşimin nihai demokratikleşmesi. Arama işlevi büyük ölçüde geliştirilmiştir, sadece ana arayüze bir soru sorarsınız ve onlar da bu soruları kendi sorguları için verilere getirebilirler. Bu düşük asılı meyve, en kolayı, bizce birinci aşama.

Ardından, gerçekten asıl soruna odaklanmaya başlıyoruz, yani tescilli kurumsal veriler, karma yapılandırılmış, yapılandırılmamış, tüm bunlar, bu verileri nasıl mobilize edeceğiz? **

C şirketlerinin karşılaştığı kayıp oranı ve tedarik zinciri yönetimi sorunlarından daha önce bahsetmiştim. Tedarik zinciri özellikle karmaşık olduğunda, bir olay meydana gelirse, çalışmasını sağlamak için bir tedarik zincirini nasıl yeniden düzenleriz? Ben şimdi ne yapmalıyım Bir tedarik zinciri, tek bir işletmeden değil, birçok farklı varlıktan oluşur. Tarihsel olarak, bu hiçbir zaman hesaplamalı olarak çözülmemiş bir problemdir. Tedarik zinciri yönetimi hiçbir zaman bir platform olmadı, birkaç küçük istisna dışında hemen hemen bir e-posta, bir elektronik tablo. Yani bu son derece heyecan verici.

Veya büyük çağrı merkezlerine yapılan yatırımı yeniden hesaplayıp perakende fiyatlarını optimize edebiliriz.Dediğim gibi, büyük şirketlerin CEO'larının dört gözle beklediği iş modelini yeniden tanımlamanın gerçek potansiyeli budur. **

06 İşletmeler için öneriler:

Huang Renxun:

**Birincisi, kendime sorardım, en değerli tek veri tabanım nedir? İkinci olarak kendime sorardım, süper, süper, süper zeki bir insanım olsaydı ve işletmedeki tüm veriler o süper zekadan geçseydi, o kişiye ne sorardım? **

Bu her kişinin şirketine göre farklıdır. Frank'in şirket müşteri veri tabanı çok önemlidir çünkü çok sayıda müşterisi vardır. Ve kendi şirketimde o kadar çok müşterim yok ama şirketim için tedarik zincirim çok karmaşık ve tasarım veri tabanım çok karmaşık.

**NVIDIA için yapay zeka olmadan bir GPU oluşturamayız. Çünkü mühendislerimizden hiçbiri bizim için yapay zeka kadar çok yineleme ve keşif yapamaz. ** Dolayısıyla biz yapay zekayı önerdiğimizde ilk uygulama kendi şirketimizdeydi. Üstelik Hopper'ın (NVIDIA süper hesaplama ürünü) yapay zeka olmadan tasarlanması imkansızdır.

Kendi yapay zekamızı da kendi verilerimize uygulayacağız. Hata veritabanımız bunun için mükemmel bir kullanım örneğidir. NVIDIA AI'daki kod miktarına bakarsanız, bir uygulamanın çalışmasını sağlayan yüzlerce yazılım paketimiz olduğunu görürsünüz. Şu anda üzerinde çalıştığımız şeylerden bazıları, geriye dönük uyumlu olurken üst uygulama katmanının tamamına müdahale etmemize gerek kalmaması için güvenliği nasıl yamalayacağımızı, onu en iyi nasıl koruyacağımızı bulmak için yapay zekayı nasıl kullanacağımızdır. .

Yapay zekanın size yanıtlar sağlayabileceği şey budur. Bu soruları cevaplamak, bizim için cevabı bulmak veya bize bir şeyler ifşa etmek için büyük bir dil modeli kullanabiliriz ve sonra mühendisler bunu düzeltebilir. Veya yapay zeka bir onarım yöntemi önerebilir ve insan mühendisler bunun iyi bir onarım yöntemi olup olmadığını onaylayabilir.

Herkesin her gün işlediği verilerde ne kadar zeka, içgörü ve etkinin saklı olduğunun farkında olduğunu sanmıyorum. **İşte bu yüzden hepimizin dahil olması ve bu geleceğin gerçekleşmesine yardımcı olmamız gerekiyor.

Artık ilk kez veri ambarında sakladığınız veriler yapay zeka fabrikasına bağlanabiliyor. **Dünyanın en değerli malı olan bilgi zeka üretebileceksiniz. Doğal kaynaklardan oluşan bir altın madeninin üzerinde oturuyorsunuz - şirketinizin özel verileri ve şimdi onu bir yapay zeka motoruna bağlıyoruz ve diğer uç, inanılmaz miktarda istihbarat akışıyla her gün doğrudan bilgi zekası üretiyor. diğer uçtan içeri, siz uyurken bile çıkmaya devam eder. Bu şimdiye kadarki en iyi şey.

View Original
The content is for reference only, not a solicitation or offer. No investment, tax, or legal advice provided. See Disclaimer for more risks disclosure.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin