Dall-e 2: Apa yang dimaksud dengan generator gambar AI yang membuat karya seni aneh dari awal dan bagaimana Anda menggunakannya?

Algoritme kecerdasan buatan yang dapat membuat gambar berdasarkan apa yang dijelaskan semakin populer belakangan ini.

Dall-e 2 – dinamai berdasarkan film Pixar 2008 Wali Pelukis surealis Salvador Dali – dibuat oleh OpenAI, laboratorium kecerdasan buatan bernilai miliaran dolar.

Tim menghabiskan dua tahun mengembangkan teknologi, yang didasarkan pada matematika “jaringan saraf” yang sama dengan asisten pintar.

Dengan mengumpulkan data dari ribuan foto, algoritme dapat “mempelajari” seperti apa seharusnya suatu objek. Berikan jutaan gambar, dan Dall-e dapat mulai menggabungkannya, membuat penggabungan apa pun yang mungkin.

Dall-e asli diluncurkan pada Januari tahun lalu, tetapi versi baru ini dapat mengedit objek — menghapus sebagian gambar atau menggantinya dengan elemen lain — sambil mempertimbangkan fitur seperti bayangan. Sementara versi pertama teknologi hanya menampilkan gambar dalam gaya seni seperti kartun, Dall-e 2 dapat menghasilkan gambar dalam berbagai gaya dengan kualitas lebih tinggi dan latar belakang yang lebih kompleks.

Bagaimana saya bisa mencobanya?

Saat ini ada daftar tunggu untuk Dall-e 2 di situs web Open AI, tetapi alat yang lebih kecil seperti Dal-e mini Saat ini tersedia untuk pengguna biasa.

Perusahaan lain seperti Google sedang mengembangkan alat serupa, seperti Imagen, yang diluncurkan akhir bulan lalu.

Aplikasi populer lainnya adalah aplikasi impian Womboyang menghasilkan gambar apa pun yang dijelaskan pengguna dalam gaya artistik yang berbeda, meskipun ini tidak menggunakan algoritme Dall-e 2 tertentu.

Bagaimana cara kerja Dall-e?

Saat seseorang mengumpankan gambar yang dihasilkan oleh Dall-E, ia merekam daftar fitur utama yang mungkin ada. Itu bisa termasuk tepi terompet atau lekukan di bagian atas telinga boneka beruang, Alex Nichol, salah satu peneliti di balik sistem tersebut, menjelaskan kepada The New York Times bulan lalu.

Jaringan saraf kedua – model difusi – kemudian membuat gambar dan menghasilkan piksel yang diperlukan untuk mereplikasi gambar, menggunakan Dall-e 2, pada resolusi yang lebih tinggi daripada yang pernah kita lihat sebelumnya.

Apakah itu memiliki batasan?

Membangun Dall-E 2 lebih sulit daripada algoritma bahasa standar. Dalle-2 dibangun di atas sistem visi komputer yang disebut CLIP, yang lebih canggih daripada sistem pencocokan kata yang digunakan oleh GPT-3 – Alat kecerdasan buatan GPT-3 terkenal dianggap “terlalu banyak” dalam versi sebelumnya Berbahaya untuk dipublikasikan” karena kemampuannya untuk membuat teks yang tampak tidak dapat dibedakan dari teks tulisan manusia.

Namun, pencocokan kata tidak menangkap kualitas yang dianggap paling penting oleh manusia dan membatasi seberapa realistis gambar tersebut. Ilmuwan riset OpenAI Prafulla Dhariwal mengatakan bahwa sementara CLIP melihat gambar dan merangkum kontennya, alat yang digunakan di sini dimulai dengan deskripsi dan bekerja pada gambar. tepian Ini seperti memulai dengan “sekantong titik” dan kemudian mengisi pola dengan lebih banyak detail.

Ada juga perlindungan bawaan untuk gambar bertanda air yang dapat dihasilkan. Model dilatih pada data yang menyaring “konten yang tidak pantas” dan tidak menghasilkan wajah yang dapat dikenali berdasarkan nama seseorang.

Orang yang menguji Dall-e 2 juga dilarang mengunggah atau membuat gambar yang tidak pantas untuk rata-rata penonton atau dapat membahayakan, termasuk simbol kebencian, ketelanjangan, kecabulan, dan teori konspirasi.

Ada kekhawatiran?

Kekhawatiran seputar Dall-e 2 dan iterasi berikutnya sama dengan yang dibahas untuk teknologi lain seperti deepfake dan pembuatan suara AI: ini dapat membantu menyebarkan disinformasi di internet.

“Anda dapat menggunakannya untuk hal-hal baik, tetapi tentu saja Anda dapat menggunakannya untuk semua jenis aplikasi gila dan mengkhawatirkan lainnya, termasuk deepfake,” seperti foto dan video yang menyesatkan, kata Subbarao Kambhampati, profesor ilmu komputer di Arizona State University. . Universitas, kepada New York Times.

Dalle-2 merangkum teknik dalam Situs Github menghosting pratinjaunya“Tanpa perlindungan yang memadai, model seperti DALL E 2 berpotensi digunakan untuk menghasilkan berbagai konten yang menipu dan berbahaya lainnya, dan dapat memengaruhi cara orang memandang keaslian konten secara lebih umum. DALL E 2 E 2 juga mewarisi berbagai bias dari data pelatihannya, dan hasilnya terkadang memperkuat stereotip sosial,” tulis para pengembang.

Demikian juga, Google mengeluarkan pernyataan panjang yang menggambarkan tantangan etis dari penelitian teks-ke-gambar, mengutip bias rasial yang telah ditunjukkan AI di area lain — berdasarkan kumpulan data rasis — seperti pekerjaan polisi.

“Sementara sebagian dari data pelatihan kami disaring untuk menghilangkan kebisingan dan konten yang tidak pantas, seperti gambar porno dan bahasa beracun, kami juga menggunakan dataset LAION-400M, yang diketahui berisi berbagai konten yang tidak pantas, termasuk gambar porno, Penghinaan rasis, dan stereotip sosial yang berbahaya,” tulis Google.

“Dengan demikian, Imagen menghadapi risiko penyandian stereotip dan representasi berbahaya, yang memandu keputusan kami untuk tidak merilis Imagen untuk penggunaan publik tanpa perlindungan lebih lanjut.”

Bandwidth vs Kecepatan Data Dijelaskan 2023 [Guide to VPN…

Jika Anda pernah mencoba membeli paket data atau VPN, Anda mungkin pernah melihat istilah “bandwidth” dan “laju data” sebelumnya, dan Anda bahkan mungkin melihatnya...
Ngademin
4 min read