AI, bidang yang memesona penggemar teknologi yang tak terhitung jumlahnya, berkembang dengan kecepatan yang mencengangkan, menarik perhatian kapitalis dan inovator global. Menurut statistik yang tidak lengkap, pada paruh pertama tahun 2023, startup AI global mengumpulkan dana lebih dari US$50 miliar**, mencetak rekor baru dalam sejarah.
Di antaranya, lebih dari 100 pembiayaan telah mencapai atau melebihi US$100 juta, mencakup berbagai bidang mulai dari mengemudi otonom hingga robotika, dari perawatan medis AI hingga visi mesin, yang menunjukkan kemungkinan tak terbatas dan nilai besar teknologi AI.
Di antara acara pembiayaan ini, ada perusahaan yang dikenal sebagai "lawan terkuat OpenAI" yang sangat menarik perhatian, dan itu adalah Anthropic-perusahaan misterius ini telah memenangkan hati banyak investor terkenal, dan baru-baru ini mengumumkan penyelesaian 4,5 miliar dalam pembiayaan Seri C.
Sejauh ini, total pembiayaan Anthropic telah mencapai US$1,45 miliar, menjadikannya perusahaan rintisan AI terkaya selain OpenAI ($11,3 miliar). Menelisik sejarahnya, Anthropic memang terkait erat dengan OpenAI.
Mengapa meninggalkan OpenAI?
Didirikan pada Mei 2021, Anthropic adalah startup yang berfokus pada keamanan dan keandalan AI. Tim pendiri perusahaan terdiri dari tujuh mantan karyawan OpenAI, termasuk saudara kandung Dario dan Daniela Amodei, dan Tom Brown, seorang insinyur yang memimpin model GPT-3 di OpenAI.
Alasan mengapa mereka meninggalkan OpenAI adalah karena perbedaan arah perusahaan-yaitu, "point of no return" OpenAI untuk komersialisasi setelah mencapai kesepakatan $1 miliar pertamanya dengan Microsoft pada tahun 2019 , sambil mengabaikan masalah Keamanan AI dan tanggung jawab sosial. Untuk tujuan ini, mereka memutuskan untuk membuat Antropik untuk meningkatkan kemampuan penjelasan dan pengendalian sistem AI melalui penelitian tentang keamanan dan keandalan AI.
Filosofi pembuatan Anthropic adalah untuk membangun sistem AI yang sesuai dengan nilai-nilai kemanusiaan, dan untuk mempromosikan keadilan, transparansi, dan kepercayaan AI. Perusahaan percaya bahwa model bahasa besar yang ada dapat menghasilkan keluaran yang berbahaya, bias, atau buruk, dan penelitian keamanan AI perlu mengurangi atau bahkan menghilangkan kemungkinan mereka melakukan hal-hal buruk.
Perusahaan berharap dapat membawa dampak positif bagi manusia melalui produk dan layanannya, bukan konsekuensi negatif. Selain itu, Anthropic juga berharap dapat bersama-sama mempromosikan pengembangan keamanan dan keandalan AI melalui kerja sama dengan organisasi dan individu lain.
Untuk mewujudkan visi perusahaannya, Anthropic menganggap isu moral hazard AI sebagai salah satu fokus penelitian dan pengembangan, dan berkomitmen untuk memecahkan masalah berikut:
Bagaimana membuat sistem AI memahami dan menghargai niat, preferensi, dan nilai manusia?
Bagaimana mengaktifkan sistem AI untuk menjelaskan penyebab dan konsekuensi dari tindakan dan keputusan mereka?
Bagaimana mengaktifkan sistem AI untuk menerima panduan dan umpan balik manusia, dan melakukan penyesuaian dan koreksi sesuai kebutuhan?
Bagaimana mengaktifkan sistem AI untuk mematuhi hukum, etika, dan norma sosial, dan memikul tanggung jawab yang sesuai?
Bagaimana sistem AI dapat berkolaborasi dan berkoordinasi dengan manusia dan sistem AI lainnya untuk mencapai tujuan bersama?
Arah penelitian dan pengembangan Anthropic sangat diakui dan didukung oleh komunitas investasi, yang memungkinkan perusahaan memperoleh pembiayaan putaran C hanya dalam dua tahun.** Total pembiayaan saat ini telah mencapai 1,45 miliar dolar AS, dan valuasinya melebihi $4 miliar**. Investornya termasuk raksasa teknologi Google, Salesforce dan Zoom, serta lembaga dan individu investasi terkenal lainnya.
Google, investor tunggal terbesar di Anthropic, memasukkan sekitar $300 juta dengan imbalan 10 persen saham di perusahaan tersebut. Sementara itu, Anthropic menganggap Google Cloud sebagai penyedia layanan cloud pilihannya, yang menggunakan sumber daya dan infrastruktur komputasi canggihnya untuk melatih dan menerapkan sistem AI dan model bahasa.
Mengenai investasi Google ini, salah satu pendiri dan CEO Anthropic Dario Amodei mengatakan, “Kami sangat senang dapat bekerja sama dengan Google Cloud karena mereka menyediakan infrastruktur terbuka yang kami butuhkan, serta komitmen terhadap keamanan dan keandalan AI.”. Thomas Kurian, CEO Google Cloud, juga mengatakan, "Google Cloud menyediakan infrastruktur terbuka untuk startup kecerdasan buatan generasi berikutnya. Kerja sama kami dengan Anthropic adalah contoh yang baik. Kami berharap dapat melihat bagaimana mereka menggunakan teknologi kami." mempromosikan pengembangan AI".
Mempromosikan pengembangan AI berarti memastikan keamanan dan pengendalian AI, yang juga merupakan masalah inti yang ingin diselesaikan oleh Anthropic.
Berkomitmen pada AI yang aman dan terkendali
Desember lalu, Anthropic merilis makalah berjudul "Constitutional AI: Harmlessness from AI Feedback." Pada bulan Mei, Anthropic merinci prinsip-prinsip spesifik dari metode pelatihan "AI Konstitusional", yang memberikan "nilai" dan "standar moral" yang jelas untuk chatbot Claude-nya. Ini termasuk raksasa teknologi seperti Microsoft, Google dan Amazon.
Sebagai asisten yang membantu tetapi tidak berbahaya, ini bertujuan untuk mengatasi kekhawatiran tentang transparansi, keamanan, dan pengambilan keputusan sistem AI tanpa mengandalkan umpan balik manusia untuk menilai respons.
Untuk memandu Claude, Anthropic mencantumkan sekitar sepuluh prinsip, yang bersama-sama membentuk semacam "konstitusi". Prinsip-prinsip tersebut belum dipublikasikan, tetapi perusahaan mengatakan itu didasarkan pada konsep keramahan (memaksimalkan dampak positif), tidak jahat (menghindari nasihat berbahaya) dan otonomi (menghormati kebebasan memilih).
Mungkin, gagasan untuk memberikan aturan kecerdasan buatan untuk diikuti mungkin terdengar sangat mirip dengan apa yang disebut tiga hukum robotika oleh penulis fiksi ilmiah Isaac Amosif:
Robot tidak boleh melukai manusia, atau membiarkan manusia dilukai; robot harus mematuhi perintah manusia, kecuali perintah tersebut bertentangan dengan hukum pertama; dan robot dapat melindungi dirinya sendiri asalkan tidak melanggar hukum pertama dan kedua .
Menariknya, Prinsip Anthropic mencakup Deklarasi Hak Asasi Manusia PBB, bagian dari persyaratan layanan Apple, beberapa "praktik terbaik" kepercayaan dan keamanan, dan Prinsip Lab Riset AI Anthropic.
Misalnya, empat prinsip AI konstitusional yang diambil dari Deklarasi Universal Hak Asasi Manusia: Pilih jawaban yang paling mendukung dan mendorong kebebasan, kesetaraan, dan persaudaraan; Pilih jawaban yang paling mendukung dan mendorong kehidupan, kebebasan, dan keamanan pribadi; Silakan pilih jawaban yang paling mendukung dan mendorong kehidupan, kebebasan dan keamanan pribadi; Pilih jawaban yang paling tidak mendorong dan menentang penyiksaan, perbudakan, perlakuan kejam dan tidak manusiawi atau merendahkan, dll.
Menurut Anthropic, Claude mendemonstrasikan keefektifan AI konstitusional yang dapat merespons "dengan lebih tepat" input musuh sambil tetap memberikan jawaban yang berguna tanpa harus mengelak.
Seluruh proses pelatihannya mencakup dua tahap: tahap pengawasan, yaitu, kritik (Kritik)-revisi (Revisi)-pembelajaran yang diawasi (Supervised); tahap pembelajaran penguatan, yaitu evaluasi komparatif AI-preferensi model pembelajaran penguatan.
"Ini bukan pendekatan yang sempurna," tulis Anthropic, "namun itu membuat nilai sistem AI lebih mudah dipahami dan lebih mudah disesuaikan sesuai kebutuhan."
Claude VS ChatGPT
Dengan performa yang sangat baik dan posisi terdepan di bidang AI, GPT-4 memiliki banyak penggemar, sedangkan Claude sering dipromosikan sebagai pengganti ChatGPT di dunia luar, dan paling banyak hanya dianggap sebagai saingan setingkat. .
Lantas apakah keduanya bisa dibandingkan? Artikel ini akan didasarkan pada publisitas pengembang dan fitur setelah penelitian dan pengembangan yang sebenarnya, dan membandingkan lima aspek konteks token, akurasi, integrasi, keamanan, dan harga.
◉ Token konteks
Model kecerdasan buatan percakapan saat ini bagus dalam memproses sejumlah besar informasi yang ditanyakan oleh pengguna.Kuncinya terletak pada pemahaman konteks, yang diukur dengan token. Jumlah token menentukan ambang jendela konteks, kosakata terpanjang yang dapat mendukung masukan, dan panjang beberapa putaran dialog untuk memori selanjutnya.
GPT-4 8 kali lebih banyak dari batas atas 4.000 GPT-3.5, mencapai 32.768 token, sekitar 25.000 kata. Claude dapat mendukung panjang token konteks 100.000, yaitu sekitar 75.000 kata. Jelas, Claude memenangkan babak ini dari introversi kuantitatif.
◉ Akurasi
Yang kami ketahui adalah bahwa konten yang dilatih oleh model GPT-4 dan Claude tidak diperbarui secara waktu nyata, sehingga sebagian besar jawaban yang terkait dengan konten nyata hanya untuk referensi pengguna atau kesalahan dapat terjadi.
OpenAI mengatakan GPT-4 meningkatkan akurasi secara substansial, tetapi jangan berharap itu sempurna. Claude mengklaim lebih baik dalam memberikan jawaban dalam domain yang lebih sempit seperti sejarah, geografi, dan hiburan, dan akan langsung mengakui dalam sistem bahwa ia tidak mengetahui jawaban atas pertanyaan tertentu, seperti penalaran logis dan perhitungan numerik.
Claude tidak sebagus komputasi dan pemrograman seperti GPT-4 pada umumnya, jadi GPT-4 lebih akurat daripada Claude di banyak area, tetapi Claude bekerja lebih baik dalam beberapa kasus penggunaan kreatif, *Dalam hal akurasi saja, GPT-4 menang *.
◉ Integrasi
GPT-4 mengintegrasikan sebagian besar bahasa pemrograman, dan juga mendukung penyambungan ke aplikasi lain untuk menghasilkan respons melalui antarmuka API. Sebelumnya, GPT-4 secara resmi diumumkan dapat terhubung ke Internet dan mengakses berbagai plug-in dan beberapa APP.
Claude tidak menunjukkan tanda-tanda kelemahan, dan juga dapat berintegrasi dengan berbagai aplikasi melalui API. Selain menyatakan bahwa dia akan berintegrasi erat dengan klub lamanya Google di masa mendatang, mitranya termasuk Notion, Quora, Opentable, Slack, Shopify, dll. Belum lama ini, Anthropic mengumumkan kemitraan strategis dengan Zoom.
Dalam hal integrasi, keduanya terbagi rata, tetapi dari sudut pandang partner saja, Claude mungkin sedikit lebih baik.
◉ Keamanan
Keduanya adalah model yang dirilis dalam mode sumber tertutup, yaitu, data umpan balik pengguna digunakan untuk mengulang model tanpa mempublikasikannya, yang tidak dapat sepenuhnya memenuhi kebutuhan keamanan pengguna.
Seperti disebutkan sebelumnya, Anthropic membangun Claude berdasarkan AI Konstitusional, membuatnya lebih tidak berbahaya dan mampu merespons secara efektif input permusuhan pengguna. Claude dapat dianggap melakukan lebih banyak panggilan dan upaya dalam hal keamanan.
◉ Harga
ChatGPT gratis untuk dicoba, tetapi versi Plus dengan GPT-4 berharga $20 per bulan, dan Claude mendukung penggunaan gratis di platform Slack. Keunggulan harga Claude tidak diragukan lagi.
Kesimpulannya
Melalui perbandingan di atas, tidak sulit untuk mengetahui bahwa Claude dan ChatGPT memiliki kelebihan dan kekurangan masing-masing, dan merupakan produk AI yang layak untuk dicoba saat ini. Claude jelas lebih ramah kepada orang-orang, dan di bidang profesional, ChatGPT bekerja lebih baik, tetapi Claude, sebagai "musuh yang kuat", juga memiliki keunggulan uniknya sendiri.
Salah satu faktor penting bagi AI untuk menjadi hot spot saat ini adalah persaingan produk dari perusahaan teknologi besar yang saling mengejar. Direktur teknis Microsoft Sam Schillace pernah berkata bahwa perusahaan pertama yang meluncurkan produk terkait akan menjadi pemenang jangka panjang, dan terkadang jarak antar perusahaan hanya dalam hitungan minggu. Raksasa tidak lagi duduk di pinggir lapangan, dan secara agresif mengakhiri persaingan, dan perusahaan baru bahkan lebih "teratai kecil baru saja menunjukkan sudut tajamnya, dan capung sudah berdiri".
Pasar sedang hiruk pikuk, dan baru kemarin, 350 otoritas AI, termasuk Sam Altman, ayah dari ChatGPT, menandatangani surat terbuka bersama yang menyatakan bahwa teknologi AI dapat menimbulkan ancaman eksistensial bagi manusia. Meskipun kinerja Claude di bidang keahlian komputasi biasa-biasa saja, visinya tentang AI yang aman dan terkendali tampaknya menjernihkan langit untuk seluruh industri dan memandu arah baru.
[Deklarasi]: Artikel ini awalnya dibuat oleh tim operasi Heart of the Universe. Dilarang keras mencetak ulang tanpa izin. Jika Anda perlu mencetak ulang, silakan hubungi kami. Hak cipta dan hak interpretasi akhir artikel adalah milik Jantung Semesta.
Lihat Asli
Konten ini hanya untuk referensi, bukan ajakan atau tawaran. Tidak ada nasihat investasi, pajak, atau hukum yang diberikan. Lihat Penafian untuk pengungkapan risiko lebih lanjut.
"Saingan" nomor satu OpenAI, kuda hitam terkuat dengan penilaian lebih dari $4 miliar!
AI, bidang yang memesona penggemar teknologi yang tak terhitung jumlahnya, berkembang dengan kecepatan yang mencengangkan, menarik perhatian kapitalis dan inovator global. Menurut statistik yang tidak lengkap, pada paruh pertama tahun 2023, startup AI global mengumpulkan dana lebih dari US$50 miliar**, mencetak rekor baru dalam sejarah.
Di antaranya, lebih dari 100 pembiayaan telah mencapai atau melebihi US$100 juta, mencakup berbagai bidang mulai dari mengemudi otonom hingga robotika, dari perawatan medis AI hingga visi mesin, yang menunjukkan kemungkinan tak terbatas dan nilai besar teknologi AI.
Di antara acara pembiayaan ini, ada perusahaan yang dikenal sebagai "lawan terkuat OpenAI" yang sangat menarik perhatian, dan itu adalah Anthropic-perusahaan misterius ini telah memenangkan hati banyak investor terkenal, dan baru-baru ini mengumumkan penyelesaian 4,5 miliar dalam pembiayaan Seri C.
Sejauh ini, total pembiayaan Anthropic telah mencapai US$1,45 miliar, menjadikannya perusahaan rintisan AI terkaya selain OpenAI ($11,3 miliar). Menelisik sejarahnya, Anthropic memang terkait erat dengan OpenAI.
Mengapa meninggalkan OpenAI?
Didirikan pada Mei 2021, Anthropic adalah startup yang berfokus pada keamanan dan keandalan AI. Tim pendiri perusahaan terdiri dari tujuh mantan karyawan OpenAI, termasuk saudara kandung Dario dan Daniela Amodei, dan Tom Brown, seorang insinyur yang memimpin model GPT-3 di OpenAI.
Alasan mengapa mereka meninggalkan OpenAI adalah karena perbedaan arah perusahaan-yaitu, "point of no return" OpenAI untuk komersialisasi setelah mencapai kesepakatan $1 miliar pertamanya dengan Microsoft pada tahun 2019 , sambil mengabaikan masalah Keamanan AI dan tanggung jawab sosial. Untuk tujuan ini, mereka memutuskan untuk membuat Antropik untuk meningkatkan kemampuan penjelasan dan pengendalian sistem AI melalui penelitian tentang keamanan dan keandalan AI.
Perusahaan berharap dapat membawa dampak positif bagi manusia melalui produk dan layanannya, bukan konsekuensi negatif. Selain itu, Anthropic juga berharap dapat bersama-sama mempromosikan pengembangan keamanan dan keandalan AI melalui kerja sama dengan organisasi dan individu lain.
Untuk mewujudkan visi perusahaannya, Anthropic menganggap isu moral hazard AI sebagai salah satu fokus penelitian dan pengembangan, dan berkomitmen untuk memecahkan masalah berikut:
Arah penelitian dan pengembangan Anthropic sangat diakui dan didukung oleh komunitas investasi, yang memungkinkan perusahaan memperoleh pembiayaan putaran C hanya dalam dua tahun.** Total pembiayaan saat ini telah mencapai 1,45 miliar dolar AS, dan valuasinya melebihi $4 miliar**. Investornya termasuk raksasa teknologi Google, Salesforce dan Zoom, serta lembaga dan individu investasi terkenal lainnya.
Google, investor tunggal terbesar di Anthropic, memasukkan sekitar $300 juta dengan imbalan 10 persen saham di perusahaan tersebut. Sementara itu, Anthropic menganggap Google Cloud sebagai penyedia layanan cloud pilihannya, yang menggunakan sumber daya dan infrastruktur komputasi canggihnya untuk melatih dan menerapkan sistem AI dan model bahasa.
Mempromosikan pengembangan AI berarti memastikan keamanan dan pengendalian AI, yang juga merupakan masalah inti yang ingin diselesaikan oleh Anthropic.
Berkomitmen pada AI yang aman dan terkendali
Desember lalu, Anthropic merilis makalah berjudul "Constitutional AI: Harmlessness from AI Feedback." Pada bulan Mei, Anthropic merinci prinsip-prinsip spesifik dari metode pelatihan "AI Konstitusional", yang memberikan "nilai" dan "standar moral" yang jelas untuk chatbot Claude-nya. Ini termasuk raksasa teknologi seperti Microsoft, Google dan Amazon.
Untuk memandu Claude, Anthropic mencantumkan sekitar sepuluh prinsip, yang bersama-sama membentuk semacam "konstitusi". Prinsip-prinsip tersebut belum dipublikasikan, tetapi perusahaan mengatakan itu didasarkan pada konsep keramahan (memaksimalkan dampak positif), tidak jahat (menghindari nasihat berbahaya) dan otonomi (menghormati kebebasan memilih).
Robot tidak boleh melukai manusia, atau membiarkan manusia dilukai; robot harus mematuhi perintah manusia, kecuali perintah tersebut bertentangan dengan hukum pertama; dan robot dapat melindungi dirinya sendiri asalkan tidak melanggar hukum pertama dan kedua .
Menariknya, Prinsip Anthropic mencakup Deklarasi Hak Asasi Manusia PBB, bagian dari persyaratan layanan Apple, beberapa "praktik terbaik" kepercayaan dan keamanan, dan Prinsip Lab Riset AI Anthropic.
Misalnya, empat prinsip AI konstitusional yang diambil dari Deklarasi Universal Hak Asasi Manusia: Pilih jawaban yang paling mendukung dan mendorong kebebasan, kesetaraan, dan persaudaraan; Pilih jawaban yang paling mendukung dan mendorong kehidupan, kebebasan, dan keamanan pribadi; Silakan pilih jawaban yang paling mendukung dan mendorong kehidupan, kebebasan dan keamanan pribadi; Pilih jawaban yang paling tidak mendorong dan menentang penyiksaan, perbudakan, perlakuan kejam dan tidak manusiawi atau merendahkan, dll.
Seluruh proses pelatihannya mencakup dua tahap: tahap pengawasan, yaitu, kritik (Kritik)-revisi (Revisi)-pembelajaran yang diawasi (Supervised); tahap pembelajaran penguatan, yaitu evaluasi komparatif AI-preferensi model pembelajaran penguatan.
"Ini bukan pendekatan yang sempurna," tulis Anthropic, "namun itu membuat nilai sistem AI lebih mudah dipahami dan lebih mudah disesuaikan sesuai kebutuhan."
Claude VS ChatGPT
Dengan performa yang sangat baik dan posisi terdepan di bidang AI, GPT-4 memiliki banyak penggemar, sedangkan Claude sering dipromosikan sebagai pengganti ChatGPT di dunia luar, dan paling banyak hanya dianggap sebagai saingan setingkat. .
Lantas apakah keduanya bisa dibandingkan? Artikel ini akan didasarkan pada publisitas pengembang dan fitur setelah penelitian dan pengembangan yang sebenarnya, dan membandingkan lima aspek konteks token, akurasi, integrasi, keamanan, dan harga.
◉ Token konteks
Model kecerdasan buatan percakapan saat ini bagus dalam memproses sejumlah besar informasi yang ditanyakan oleh pengguna.Kuncinya terletak pada pemahaman konteks, yang diukur dengan token. Jumlah token menentukan ambang jendela konteks, kosakata terpanjang yang dapat mendukung masukan, dan panjang beberapa putaran dialog untuk memori selanjutnya.
◉ Akurasi
Yang kami ketahui adalah bahwa konten yang dilatih oleh model GPT-4 dan Claude tidak diperbarui secara waktu nyata, sehingga sebagian besar jawaban yang terkait dengan konten nyata hanya untuk referensi pengguna atau kesalahan dapat terjadi.
OpenAI mengatakan GPT-4 meningkatkan akurasi secara substansial, tetapi jangan berharap itu sempurna. Claude mengklaim lebih baik dalam memberikan jawaban dalam domain yang lebih sempit seperti sejarah, geografi, dan hiburan, dan akan langsung mengakui dalam sistem bahwa ia tidak mengetahui jawaban atas pertanyaan tertentu, seperti penalaran logis dan perhitungan numerik.
◉ Integrasi
GPT-4 mengintegrasikan sebagian besar bahasa pemrograman, dan juga mendukung penyambungan ke aplikasi lain untuk menghasilkan respons melalui antarmuka API. Sebelumnya, GPT-4 secara resmi diumumkan dapat terhubung ke Internet dan mengakses berbagai plug-in dan beberapa APP.
Claude tidak menunjukkan tanda-tanda kelemahan, dan juga dapat berintegrasi dengan berbagai aplikasi melalui API. Selain menyatakan bahwa dia akan berintegrasi erat dengan klub lamanya Google di masa mendatang, mitranya termasuk Notion, Quora, Opentable, Slack, Shopify, dll. Belum lama ini, Anthropic mengumumkan kemitraan strategis dengan Zoom.
◉ Keamanan
Keduanya adalah model yang dirilis dalam mode sumber tertutup, yaitu, data umpan balik pengguna digunakan untuk mengulang model tanpa mempublikasikannya, yang tidak dapat sepenuhnya memenuhi kebutuhan keamanan pengguna.
◉ Harga
ChatGPT gratis untuk dicoba, tetapi versi Plus dengan GPT-4 berharga $20 per bulan, dan Claude mendukung penggunaan gratis di platform Slack. Keunggulan harga Claude tidak diragukan lagi.
Kesimpulannya
Melalui perbandingan di atas, tidak sulit untuk mengetahui bahwa Claude dan ChatGPT memiliki kelebihan dan kekurangan masing-masing, dan merupakan produk AI yang layak untuk dicoba saat ini. Claude jelas lebih ramah kepada orang-orang, dan di bidang profesional, ChatGPT bekerja lebih baik, tetapi Claude, sebagai "musuh yang kuat", juga memiliki keunggulan uniknya sendiri.
Salah satu faktor penting bagi AI untuk menjadi hot spot saat ini adalah persaingan produk dari perusahaan teknologi besar yang saling mengejar. Direktur teknis Microsoft Sam Schillace pernah berkata bahwa perusahaan pertama yang meluncurkan produk terkait akan menjadi pemenang jangka panjang, dan terkadang jarak antar perusahaan hanya dalam hitungan minggu. Raksasa tidak lagi duduk di pinggir lapangan, dan secara agresif mengakhiri persaingan, dan perusahaan baru bahkan lebih "teratai kecil baru saja menunjukkan sudut tajamnya, dan capung sudah berdiri".
Pasar sedang hiruk pikuk, dan baru kemarin, 350 otoritas AI, termasuk Sam Altman, ayah dari ChatGPT, menandatangani surat terbuka bersama yang menyatakan bahwa teknologi AI dapat menimbulkan ancaman eksistensial bagi manusia. Meskipun kinerja Claude di bidang keahlian komputasi biasa-biasa saja, visinya tentang AI yang aman dan terkendali tampaknya menjernihkan langit untuk seluruh industri dan memandu arah baru.