Apa yang hilang dari AI?

Ini adalah post-question, di dalamnya saya mencoba merumuskan masalah utama jaringan saraf yang solusinya dapat membuat terobosan dalam teknologi AI. Pada dasarnya, kita berbicara tentang jaringan yang bekerja dengan teks (GPT, BERT, ELMO, dll.). Seperti yang Anda ketahui, rumusan masalah yang baik adalah setengah dari solusinya. Tetapi saya sendiri tidak dapat menemukan solusi ini. Saya berharap untuk "bantuan penonton", karena banyak dari mereka yang menghadapi masalah yang sama dan mungkin "melihat" solusinya.



Begitu.



1. Yang paling sederhana, tetapi jaringan saraf tidak memperhitungkan fakta. Jaringan saraf belajar dari fakta tertentu, tetapi tampaknya tidak mengetahuinya. Dalam bahasa kognitif, NN memiliki memori semantik, bukan episodik, secara kasar.

Solusinya mungkin sederhana, tetapi jaringan neural adalah pengklasifikasi, dan preseden tidak boleh kelas, sebuah kontradiksi. Dan seringkali hanya diperlukan respons dari bot, mereka bekerja sangat buruk dengan fakta, jika kita tidak berbicara tentang template "respons". Masalahnya diperparah oleh fakta bahwa selalu ada pengecualian yang tidak dapat diperhitungkan oleh jaringan jika tidak memiliki cukup contoh pengecualian. Dan jika ada cukup banyak contoh, ini tidak terkecuali. Secara umum NN bisa bilang ini topi, tapi dia tidak bisa bilang topi mana yang jadi milik saya (hanya ada satu contoh).



2. "Akal Sehat". Masalah yang diketahui, bahkan disebut "materi gelap AI". Ada pendekatan menarik untuk solusinya, misalnya, dalam artikel ini, yang mendeskripsikan upaya untuk menggabungkan pendekatan AI simbolis (logis) dan jaringan neural. Tetapi ini adalah upaya untuk mundur, bukan maju. Masalahnya adalah bahwa "akal sehat" adalah pengetahuan implisit tentang dunia, yang tidak ada dalam dataset pelatihan. Tidak ada yang bahkan mengucapkan kata-kata hampa seperti itu, mereka dikenali pada usia 4-6 tahun, ketika mereka masih tidak bisa menulis. Kegagalan profil tinggi dari proyek Kompreno dan Cyc menunjukkan bahwa tidak mungkin untuk menggambarkan semua fakta dengan jelas. Mereka entah bagaimana ditampilkan dengan cepat. Belum ada ide solusi yang bagus, kecuali keterbatasan kosakata. Misalnya, seorang "anak sekolah" harus "mengarahkan" "filter" seperti itu ke kosakata jawaban sehingga opsi yang dipilih tidak berisi kata "tentara" atau "pernikahan" jika itu tentang dirinya sendiri, dan bukan tentang kehadiran kakak laki-lakinya di pesta pernikahan. Bagaimana melakukan ini di NN tidak (bagi saya) jelas.



3.Masalah yang sama pentingnya, dan mungkin terkait dengan yang sebelumnya, adalah masalah membangun penalaran. Jaringan saraf tidak tahu cara membuat silogisme, yaitu kesimpulan paling sederhana dengan penalaran yang konsisten (kesimpulan menengah). Masalah yang sama, di sisi lain, adalah ketidakmampuan untuk mengejar tujuan penalaran atau setidaknya mengikuti makna tertentu. GPT dapat membuat teks berita tentang topik tertentu, tetapi tidak ada gunanya mengatakan, "tulis berita untuk merendahkan X". Dalam kasus terbaik, dia akan menulis tentang penghinaan orang lain, dan dalam bentuk eksplisit, dan tidak seperti kita manusia, yang tersirat. Kesimpulan silogisme juga merupakan tujuan - perlu menghubungkan premis dengan kesimpulan. Pikirkan itu di pernyataan pertama (premis). Bahkan tidak jelas "dari sisi mana" ini harus dimasukkan ke dalam jaringan. Mungkin ada yang tahu?



4.Dan satu masalah lagi, yang bahkan bukan materi gelap, tapi lubang hitam AI. Ini adalah analogi dan metafora. AI memahami segalanya hanya secara harfiah. Tidak ada gunanya dia mengatakan "seperti X". Jaringan dapat menambah deskripsi, tetapi tidak dapat mendeskripsikan analognya. Mungkin ini hanya masalah dengan kumpulan data yang sesuai. Tapi menurut saya itu lebih dalam dan menunjukkan akar "cacat" dari arsitektur AI saat ini, seperti item 3. Bahasa kita sepenuhnya metafora, dan karenanya "kutukan ahli bahasa" - homonimi, tumbuh dari sini. Leksem yang sama digunakan melalui metafora dalam banyak "konsep" yang berbeda. Dan kita dapat dengan mudah menavigasi ini. Ini sebagian diselesaikan dalam tugas menentukan maksud, tetapi ini sekali lagi adalah definisi "tema", dan bukan keseluruhan konsep, yang tidak hanya terdiri dari nama maksud dan templat respons terkait, seperti pada bot.



Sejauh ini, keempat hal tersebut akan cukup untuk pembahasan, meskipun ada yang lebih spesifik, tetapi tidak kalah pentingnya masalah dalam membangun bot, misalnya. Cukup mengobrol dengan Alice dan mereka menjadi jelas secara intuitif. Tetapi dengan kata-kata mereka, semuanya tidak sesederhana itu - untuk menebak apa masalahnya menebak dan bagaimana mengatasinya. Ini lebih sulit. Terima kasih atas komentar konstruktif tentang topik ini.




All Articles