Minggu ini di Bidang AI: Bisakah kita (dan apakah kita pernah bisa) Percaya pada OpenAI?

Menyusul perkembangan industri yang begitu cepat seperti AI merupakan tugas yang sulit. Jadi hingga AI dapat melakukannya untuk Anda, berikut adalah rangkuman praktis dari berita-berita terkini di dunia machine learning, serta riset dan eksperimen penting yang belum kami bahas secara terpisah.

Oh ya, TechCrunch berencana meluncurkan newsletter AI pada tanggal 5 Juni. Pantau terus. Sementara itu, kami akan meningkatkan frekuensi kolom AI kami yang biasanya dua kali sebulan, menjadi seminggu sekali - jadi jangan lewatkan edisi lebih lanjut.

Pekan ini di bidang AI, OpenAI meluncurkan rencana diskon untuk organisasi nirlaba dan pelanggan pendidikan serta membuka tirai mengenai upaya terbarunya untuk menghentikan praktik buruk oleh penyalahgunaan alat AI-nya. Tidak banyak yang bisa dikritik di sana - setidaknya bukan dalam pandangan penulis ini. Tapi saya akan mengatakan bahwa banjir pengumuman itu tampaknya diatur untuk menghadapi pemberitaan buruk perusahaan akhir-akhir ini.

Mari kita mulai dengan Scarlett Johansson. OpenAI menghapus salah satu suara yang digunakan oleh chatbot ChatGPT-nya setelah pengguna menyoroti bahwa suara tersebut terdengar sangat mirip dengan Johansson. Johansson kemudian merilis pernyataan mengatakan bahwa dia telah mempekerjakan konselor hukum untuk menanyakan mengenai suara tersebut dan mendapatkan detail yang tepat tentang bagaimana suara itu dikembangkan - dan bahwa dia menolak berulang kali desakan dari OpenAI untuk memperoleh lisensi suaranya untuk ChatGPT.

Sekarang, sebuah artikel di The Washington Post mengimplikasikan bahwa OpenAI sebenarnya tidak berupaya mengkloning suara Johansson dan bahwa segala kemiripan adalah kebetulan. Tapi mengapa, kemudian, CEO OpenAI Sam Altman menghubungi Johansson dan mendesaknya untuk mempertimbangkan kembali dua hari sebelum demonstrasi menghebohkan yang menampilkan suara mirip itu? Sedikit mencurigakan.

Kemudian, masalah kepercayaan dan keamanan OpenAI.

Seperti yang kami laporkan sebelumnya bulan ini, tim Superalignment OpenAI yang kemudian dibubarkan, yang bertanggung jawab atas pengembangan cara-cara untuk mengendalikan dan mengarahkan sistem AI “superintelligent”, dijanjikan 20% sumber daya komputasi perusahaan - namun hanya pernah (dan jarang) menerima sebagian kecil dari ini. Itu (di antara alasan lain) menyebabkan pengunduran diri dua pemimpin tim tersebut, Jan Leike dan Ilya Sutskever, yang sebelumnya merupakan ilmuwan kepala OpenAI.

Hampir sebelas ahli keamanan telah meninggalkan OpenAI dalam setahun terakhir; beberapa, termasuk Leike, telah secara terbuka mengungkapkan keprihatinan bahwa perusahaan lebih memprioritaskan proyek komersial daripada upaya keamanan dan transparansi. Menanggapi kritik, OpenAI membentuk sebuah komite baru untuk mengawasi keputusan keamanan dan keamanan terkait proyek dan operasi perusahaan. Tetapi komite itu diisi dengan pekerja perusahaan - termasuk Altman - daripada pengamat luar. Hal ini saat OpenAI dilaporkan mempertimbangkan untuk meninggalkan struktur nirlaba demi model for-profit tradisional.

Insiden seperti ini membuat sulit untuk percaya pada OpenAI, perusahaan yang kekuatannya dan pengaruhnya tumbuh setiap hari (lihat: kesepakatan dengan penerbit berita). Sedikit perusahaan, jika ada, yang layak dipercaya. Tetapi teknologi pengguncang pasar OpenAI membuat pelanggaran semakin mengkhawatirkan.

Tidak membantu bahwa Altman sendiri tidak sepenuhnya merupakan sumber kebenaran.

Ketika berita taktik agresif OpenAI terhadap mantan karyawan terungkap - taktik yang melibatkan ancaman kepada karyawan dengan kehilangan ekuitas yang telah terakumulasi mereka, atau mencegah penjualan ekuitas, jika mereka tidak menandatangani perjanjian kerahasiaan yang membatasi - Altman meminta maaf dan mengklaim tidak mengetahui kebijakan tersebut. Tetapi, menurut Vox, tanda tangan Altman ada pada dokumen inkorporasi yang menjalankan kebijakan tersebut.

Dan jika dipercayai mantan anggota dewan OpenAI, Helen Toner - salah satu mantan anggota dewan yang mencoba untuk mencopot Altman dari jabatannya tahun lalu - Altman telah menahan informasi, mempermainkan hal-hal yang terjadi di OpenAI dan dalam beberapa kasus secara langsung berbohong kepada dewan. Toner mengatakan bahwa dewan mengetahui rilis ChatGPT melalui Twitter, bukan dari Altman; bahwa Altman memberikan informasi yang salah tentang praktik keamanan resmi OpenAI; dan bahwa Altman, tidak puas dengan makalah akademis yang ditulis Toner yang menyoroti OpenAI dengan kritis, berusaha memanipulasi anggota dewan untuk mendorong Toner keluar dari dewan.

Semua itu tidak menjanjikan kebaikan.

Berikut beberapa cerita AI lain yang menarik dari beberapa hari terakhir:

  • Clone suara yang mudah: Laporan terbaru dari Center for Countering Digital Hate menemukan bahwa layanan kloning suara AI membuat pemalsuan pernyataan politisi cukup mudah.
  • Kesusahan AI Overview Google: AI Overview, hasil pencarian yang dihasilkan AI yang Google mulai menggulirkan lebih luas bulan ini di Google Search, masih butuh perbaikan. Perusahaan mengakui ini - namun mengklaim bahwa mereka cepat beriterasi. (Kita akan lihat.)
  • Paul Graham mengenai Altman: Dalam rangkaian posting di X, Paul Graham, salah satu pendiri startup accelerator Y Combinator, menepis klaim bahwa Altman dipaksa mengundurkan diri sebagai presiden Y Combinator pada tahun 2019 karena potensi konflik kepentingan. (Y Combinator memiliki saham kecil di OpenAI.)
  • xAI menghimpun $ 6 miliar: Startup AI Elon Musk, xAI, telah menghimpun $ 6 miliar pendanaan saat Musk mengokohkan modal untuk bersaing agresif dengan pesaing termasuk OpenAI, Microsoft, dan Alphabet.
  • Fitur AI baru Perplexity: Dengan fitur Perplexity Pages, startup AI Perplexity bertujuan membantu pengguna membuat laporan, artikel, atau panduan dalam format yang lebih menarik visual, Ivan melaporkan.
  • Angka favorit model AI: Devin menulis tentang angka yang dipilih berbagai model AI saat diminta memberikan jawaban acak. Ternyata, mereka memiliki favorit masing-masing - sebuah refleksi dari data di mana masing-masing dilatih.
  • Mistral merilis Codestral: Mistral, startup AI Prancis yang didukung Microsoft dan bernilai $ 6 miliar, telah merilis model AI generatif pertamanya untuk coding, yang disebut Codestral. Tetapi tidak bisa digunakan secara komersial, berkat lisensi Mistral yang cukup ketat.
  • Chatbot dan privasi: Natasha menulis tentang taskforce ChatGPT Uni Eropa, dan bagaimana hal itu menawarkan gambaran pertama dalam membongkar kesesuaian privasi chatbot AI tersebut.
  • Generator suara ElevenLabs: Startup kloning suara ElevenLabs memperkenalkan alat baru, yang pertama kali diumumkan pada bulan Februari, yang memungkinkan pengguna menghasilkan efek suara melalui prompt.
  • Interkoneksi untuk chip AI: Raksasa teknologi termasuk Microsoft, Google, dan Intel - tetapi bukan Arm, Nvidia, atau AWS - telah membentuk sebuah kelompok industri, UALink Promoter Group, untuk membantu mengembangkan komponen chip AI generasi berikutnya.