Cinta, kematian, dan robot: melihat cerita Asimov melalui mata seorang pengembang





Untuk menghormati Hari Programmer, kami memutuskan untuk bersantai sedikit dan membaca kembali cerita favorit Isaac Asimov. Dan kemudian sebuah penemuan menanti kami: ternyata penulis fiksi ilmiah lebih dari setengah abad yang lalu menggambarkan banyak realitas perkembangan modern dengan cukup akurat. Bagaimana ini mungkin, Anda bertanya? Mari kita cari tahu bersama. 



Dari sekian banyak cerita penulis fiksi ilmiah terkenal, serial tentang perusahaan “Yu. S. Robots ”dan karyawannya. Beberapa cerita menceritakan tentang kehidupan sehari-hari penguji Powell dan Donovan - semacam penguji robot, lainnya - tentang psikolog robot utama, Dr. Calvin. Rentang masalah yang mereka hadapi sangat luas dan akrab bagi banyak rekan kontemporer mereka hingga hari ini.



Salah satu masalah umum ini adalah pernyataan pekerjaan yang dirumuskan secara tidak akurat dalam tugas. Azimov memiliki topik ini lebih dari sekali, dan tidak mengherankan - robotnya jauh lebih pintar dan "lebih manusiawi" daripada mesin modern, dan orang yang bekerja dengannya dengan mudah lupa bahwa robot itu berpikir secara berbeda. Akibatnya, setting masalah yang ceroboh bisa berubah menjadi bencana, seperti yang terjadi dalam cerita “Round Dance” .



Dan semuanya dimulai, seperti yang terlihat oleh para penguji, dengan cukup baik. Untuk mengatur basis yang ditinggalkan di Merkurius, yang dibutuhkan hanyalah satu kilogram selenium untuk memperbaiki fotosel. Dan akan ada listrik, dan dengan itu - pendinginan pangkalan, tanpanya tidak ada cara untuk bertahan hidup di Merkurius. Selena penuh di lingkungan itu, seluruh danau ... Hanya robot yang dikirim ke yang terdekat dari mereka yang gila dan berputar-putar, lebih buruk dari itu - ia membawa delirium mabuk, meskipun robot tidak minum. Selama bertamasya di luar dengan risiko menggoreng, para pahlawan mengetahui bahwa robot tersebut telah menemukan kondisi berbahaya untuk dirinya sendiri dalam perjalanan ke danau. Tapi ada perintah langsung, ada apa?



- Kubilang ... Tunggu ... Aku bilang: 'Kecepatan, kita butuh selenium. Anda akan menemukannya di sana dan di sana. Pergi dan dapatkan. " Itu saja. Apa lagi yang harus saya katakan?

- Anda tidak mengatakan bahwa ini sangat penting, mendesak?

- Untuk apa? Masalahnya sederhana.


"Kesederhanaan" ini menimbulkan dilema dalam program robot: prioritas tugas yang "tidak penting" lebih rendah daripada rasa mempertahankan diri (Hukum Ketiga, yang mengatur untuk menghindari kerusakan). Akibatnya, robot menjadi terpaku pada pilihan, memenuhi perintah atau bertahan, dan calon penguji harus memperbaiki kesalahan mereka dengan mengambil tindakan berisiko - beralih ke Hukum Pertama, yang memiliki prioritas tertinggi. Sederhananya, menempatkan dirinya dalam bahaya dan memaksa robot untuk menunda tugas-tugas lain dan bergegas menyelamatkan pemiliknya. Setelah pengalaman seperti itu, para penguji mendekati kerangka acuan dengan lebih serius - dan semuanya berjalan seperti jarum jam:



- Saya mengirimnya ke danau selenium lain - kali ini dengan pesanan untuk mendapatkan selenium dengan cara apa pun. Dia membuatnya dalam empat puluh dua menit dan tiga detik - saya menghitung waktunya.


Setelah Mercury, penugasan baru bagi para pahlawan tampaknya tidak begitu berbahaya (di stasiun antarplanet, di mana kisah "Logika" berlangsung , jauh lebih dingin, hanya "dua ratus tujuh puluh tiga derajat di bawah nol"), tetapi mereka harus menghadapi masalah yang hanya dapat dilihat oleh pengembang di mimpi buruk. Setidaknya belum ada program yang memberi tahu penciptanya bahwa makhluk yang tidak sempurna seperti itu tidak dapat menulisnya.



Namun, robot Cutie, sebuah perkembangan baru untuk melayani konverter energi, tidak percaya pada keterlibatan orang dalam pembuatannya. Nah, sungguh, bagaimana makhluk lemah ini bisa menciptakan sesuatu yang lebih sempurna dari dirinya sendiri? Ini tidak masuk akal. Dia memiliki versi yang lebih masuk akal:



- Master pertama kali menciptakan orang - spesies yang paling tidak rumit, yang paling mudah diproduksi. Secara bertahap, dia menggantinya dengan robot. Itu adalah langkah maju. Akhirnya, dia menciptakan saya untuk menggantikan orang-orang yang tersisa. Mulai sekarang saya melayani Tuhan!


Para pahlawan mencoba meyakinkan robot dengan menarik baik buku maupun fakta (seperti yang mereka pikirkan), membuktikan keberadaan Bumi. Bahkan merakit robot baru di hadapan Cutie tidak berhasil - mereka tidak yakin. Mungkin ini karena kurangnya postulat tentang asal-usulnya dan tujuannya yang dijahit ke dalam otak positronik robot. Kesalahan arsitektural ini mudah dijelaskan - pengembang hampir tidak berharap robot akan meragukan argumen orang. Tetapi cacat, yang tidak berperan dalam generasi produk sebelumnya, pada yang baru menyebabkan terciptanya rantai postulat yang berbeda di otak mesin: 



"Saya tidak percaya," Powell menyetujui dengan sedih. - Itu robot penalaran, sialan! Dia hanya percaya pada logika, dan itulah intinya ...

- Apa?

- Penalaran yang sangat logis dapat membuktikan apa saja - tergantung pada postulat awal mana yang diterima. Kami memilikinya, dan Cutie memilikinya.


Namun, terlepas dari kenyataan bahwa robot memahami tugasnya melalui variabel lain, ia sepenuhnya memenuhi fungsinya. Dia hanya melakukannya bukan karena orang memerintahkannya, tetapi karena itulah kehendak Tuhan.



Dan orang-orang dihadapkan pada dilema klasik: apakah ada gunanya memperbaiki sesuatu jika berhasil? Jadi para pahlawan, setelah direnungkan, sampai pada kesimpulan - tidak sepadan:



– , - . , .

– ?

– ! , ?

– ?

– , …

– !


Cerita ketiga tentang penguji - "Menangkap Kelinci" - menunjukkan dengan baik apa yang terjadi jika produk belum diuji stres sebelum dirilis. Ceritanya menggambarkan uji coba lapangan penambang robot Dave, dengan desain baru - satu komposit (satu robot komandan mengontrol enam robot lain, seperti tangan - jari). Tapi begitu robot dibiarkan tanpa pengawasan, ia berhenti bekerja. Selain itu, dia mulai berbaris bersama seluruh tim - aktivitas yang sangat mencurigakan bagi seorang penambang. 



Masalah penguji paling baik dijelaskan dengan kutipan dari cerita itu sendiri:



– . – ! – . – : . : «. . » , . : . : , «. . » . : , , .


Di bawah ancaman kehilangan pekerjaan yang baik, penguji mampu melakukan banyak hal - fakta. Pahlawan cerita pergi dan menolak banyak opsi untuk verifikasi - dari pengujian unit di situs (itu dapat dibongkar dan diuji secara terpisah, tetapi hanya ada 10 hari dan belum diketahui apakah ini akan memberikan sesuatu) ke lingkungan pengujian khusus (yang mana adalah, tapi di Bumi yang jauh dan beratnya 10 ton). Apa yang tersisa? Simulasikan kondisi saat bug muncul, dan cari, cari alasannya. Sayangnya, ini adalah bagian dari banyak penguji modern. Benar, mereka lebih beruntung - tidak seperti pahlawan dalam cerita, spesialis saat ini setidaknya tidak harus sengaja meledakkan tambang bersama mereka. Tetapi di bawah puing-puing batu, seseorang berpikir jauh lebih efisien, dan itu bagus karena para pengembang belum mengadopsi teknik ini.



Kecelakaan yang dicurangi tidak hanya membantu menyebabkan bug, tetapi juga menebak penyebabnya dan bahkan dengan cara yang ekstrim - dengan meledakkan salah satu "jari" robot - untuk mengurangi beban dan menghilangkan masalah:



- Itulah yang saya bicarakan. Perintah dikirim secara bersamaan di enam saluran! Dalam kondisi normal, satu atau lebih "jari" melakukan pekerjaan sederhana yang tidak membutuhkan pemantauan ketat. Nah, seperti gerakan berjalan kita biasanya. Dan dalam keadaan yang ekstrim, keenamnya harus segera bertindak dan bersamaan. Dan di sini ada sesuatu yang menyerah. Selebihnya sederhana. Setiap penurunan inisiatif yang diminta darinya, misalnya, penampilan seseorang, membawanya ke dirinya sendiri. Saya menghancurkan salah satu robot, dan Dave hanya perlu memerintahkan lima, inisiatif berkurang dan dia menjadi normal!


Namun, tidak hanya penguji- "penguji" yang mendapatkan tugas sulit dalam cerita Azimov. Dalam cerita "How the Robot Got Lost", kepala psikolog robot Susan Calvin harus mencari bukan kerusakan, tetapi untuk keseluruhan robot. Tidak, dia tidak menghilang tanpa jejak - dia bersembunyi di antara orang lain yang sejenis dan berpura-pura menjadi salah satu dari mereka. Hanya dari 63 robot, 62 mengatakan kebenaran, dan satu berbohong, dan ini bug yang serius.



Alasan kegagalan ditemukan dengan cepat: pelanggan melakukan perubahan pada program robot. Dan bukan di suatu tempat di luar sana, tetapi di bagian kuncinya - dalam perumusan Hukum Pertama. Robot baru tidak lagi berkewajiban untuk melindungi seseorang (agar tidak naik ke sinar gamma untuk ilmuwan dan tidak memburuk). Namun, seperti yang sering terjadi dalam kehidupan nyata, perubahan yang tidak konsisten seperti itu, yang dibuat tanpa sepengetahuan ahli terkemuka, memiliki konsekuensi yang mengerikan. Dalam kasus ini, interferensi melanggar logika hukum yang sebelumnya jelas, dan sistem yang pernah diminyaki dengan baik menjadi tidak stabil. Jadi urutan emosional "pergi dan jangan tunjukkan dirimu sehingga aku tidak melihatmu lagi" memberi robot sebuah celah, ia patuh - dan melakukan segalanya untuk memenuhi perintah.

Kami harus mengembangkan serangkaian tes untuk kepatuhan terhadap Hukum Pertama dan membuat jebakan berdasarkan bug lain dari perubahan dalam program robot - rasa superioritas yang bukan karakteristik mesin biasa:



– . , -, . , . -10 . , . - , -2 , . , . , . , , , , , -10 , . - , , … .


Para pahlawan dipaksa untuk mencari bug dalam cerita "Resiko" . Kapal dengan hyperdrive tunduk pada verifikasi, yang karena alasan tertentu tidak melompat selama pengujian. Bagi manusia, lompatan seperti itu berbahaya, jadi kapal itu dikemudikan oleh robot. Sekarang Anda harus mengirim seseorang ke kapal untuk mencari tahu penyebab kegagalannya.



Cerita ini telah mengangkat beberapa masalah pemrograman. Pertama, pengujian - otomatis (dalam hal ini - oleh robot) atau manual (ilmuwan). Sekilas, robot tampaknya merupakan pilihan yang lebih cocok - mesin lebih cepat dan lebih dapat diandalkan daripada spesialis manusia. Tetapi ahli robopsikologi bersikeras untuk melakukan pemeriksaan manusia. Dia kemudian menjelaskan posisinya sebagai berikut:



–  , , . : . , , . . . , , .



,  , . , . , . , , , , ? « » – , . , , .


Sebagian, prinsip-prinsip ini masih relevan saat ini - meskipun pengujian otomatis digunakan lebih dan lebih luas dan memiliki banyak keuntungan, dalam beberapa situasi pengujian manual masih masuk akal dan memungkinkan Anda untuk mengidentifikasi masalah yang, karena kekhususannya, sulit ditemukan menggunakan mesin. Dalam ceritanya, tidak mungkin robot menyiapkan skenario lengkap untuk menemukan bug, karena tidak ada pemahaman tentang apa yang sebenarnya bisa terjadi di kapal, dan itu tidak akan melihat adanya kemungkinan masalah yang belum ditemukan. Tetapi seseorang dapat menyesuaikan dirinya sendiri di tempat, berdasarkan apa yang dilihatnya dan mengandalkan kesimpulannya sendiri.



Kedua, cerita itu kembali memunculkan pertanyaan tentang kerangka acuan yang benar. Di sanalah alasan untuk bug itu terletak - algoritma untuk menghidupkan mesin ditentukan untuk robot tanpa memperhitungkan perbedaannya dari manusia. Akibatnya, mengikuti perintah yang dirumuskan dengan tidak benar, dia berlebihan - dan mematahkan pelatuknya:



–  , . , «. . » . , . ! , , . . : , .

–  …

–  , , . , . , … 


Ada banyak cerita serupa, sebagian tampak ketinggalan jaman, tetapi dalam banyak hal mengantisipasi peristiwa masa depan, baik di Azimov maupun penulis lain. Sayang sekali kami masih belum memiliki robot yang sangat berkembang, dan masalah serta tenggat waktu selalu bersama kami, penulis fiksi ilmiah yang hebat mencatat hal ini dengan benar.



All Articles