Bagaimana Cybersecurity Mengubah Pasar TI (Bagian 1)

Bagaimana struktur seluruh lingkup TI dapat berubah jika beberapa sistem perlindungan, kontrol, otentikasi, pemantauan, dan kriptografi hak cipta memberi kita tidak hanya alat yang lebih baik, tetapi juga teknologi baru yang secara fundamental untuk bekerja dengan data? Ini tidak hanya mempengaruhi pasar TI, tetapi juga pasar tenaga kerja. Transformasi teknologi seperti itu, seperti yang lainnya, akan menciptakan kebutuhan akan personil baru, dan membuat orang lain tidak bekerja.



gambar



Dengan publikasi ini, saya berencana untuk memulai serangkaian artikel tentang bagaimana teknologi baru di bidang cybersecurity dapat mengubah seluruh industri TI. Biasanya, perang melawan ancaman ditugaskan fungsi tambahan, dan beberapa orang berpikir bahwa dalam waktu dekat, teknologi perlindungan dapat secara signifikan mengubah hidup kita, menjadikannya tidak hanya lebih aman, tetapi secara fundamental berbeda. Dalam perkiraan saya, saya akan mencoba untuk fokus pada periode 5-30 tahun. Jika Anda mengambil lebih dari 30 tahun, maka Anda dapat sepenuhnya masuk ke abstraksi, dan jika kurang dari 5, maka perkiraannya akan terlalu jelas. Pada bagian pertama, kita akan berbicara tentang pasar baru untuk tenaga kerja intelektual, yang praktis tidak ada saat ini, ini adalah pasar untuk algoritma.



Setiap programmer yang terlibat dalam tugas-tugas optimasi kompleks, mengembangkan fungsi kriptografi baru atau menerima beberapa hasil signifikan baru dari pengembangan ML / AI, muncul pemikiran: apakah mungkin untuk menjual algoritma yang telah mengambil sejumlah besar karya intelektual, dan sesuatu dapatkan uang dari mereka? Biasanya, jawaban untuk pertanyaan ini adalah tidak. Terkadang Anda dapat menjual, tetapi hanya sekali dan hanya untuk beberapa layanan khusus dengan kewajiban untuk tidak menggunakannya di tempat lain. Ketika saya masih di sekolah pascasarjana di departemen analisis sistem, mahasiswa pascasarjana lokal menulis banyak karya yang menarik dan signifikan tentang optimasi multi-kriteria, di mana dimungkinkan untuk meningkatkan algoritma individu dan mendapatkan hasil yang beberapa persen lebih akurat daripada yang ada. Namun, komersialisasi lebih lanjut dari perkembangan ini tidak pernah diikuti,dengan pengecualian menjual R&D itu sendiri sebagai layanan.



Bisakah algoritma dijual?



Mari kita menganalisis kompleksitas operasi semacam itu menggunakan contoh terpisah. Katakanlah seorang pengembang membuat fungsi hash baru yang terbukti tahan tabrakan. Hasil yang bermanfaat seperti itu membuatnya berpikir bahwa akan bagus untuk menjual akses ke fungsi hash. Ada dua cara untuk melakukan ini:



1. In-cloud: untuk meng-host di suatu tempat di cloud dan menyediakan layanan HASHaaS. Saat ini, solusi ini sesederhana yang tidak masuk akal. Bahkan jika kita membayangkan bahwa kecepatan dan kualitas saluran komunikasi cukup untuk memastikan SLA yang diperlukan dari panggilan fungsi, kita akan menghadapi kesulitan mengirim data itu sendiri ke cloud. Informasi yang ingin kita hash cenderung bernilai bagi kita. Misalnya, kita dapat menemukan fungsi hash dokumen untuk verifikasi lebih lanjut dengan tanda tangan digital elektronik atau menerapkan hashing kata sandi pengguna agar tidak menyimpannya dalam database. Mengirim kata sandi dalam bentuk yang jelas ke beberapa server asing, untuk mendapatkan hash nanti - terlihat tidak masuk akal. Jika Anda mengenkripsi mereka untuk transmisi, server jauh masih harus mendekripsi mereka untuk menghitung hash. Jadi,ia akan menerima semua kata sandi, semua dokumen, dan semua data lain yang ingin kami hash. Menggunakan model cloud ternyata tidak dapat digunakan, kecuali dalam beberapa kasus yang jarang terjadi ketika informasi yang dikirim ke server jauh sama sekali tidak bernilai bagi kami. Tetapi situasi seperti itu lebih baik menjadi pengecualian bagi aturan.



2. On-premise... Cara kedua melibatkan mentransfer algoritma langsung ke sisi klien, di mana ia akan menjalankannya sendiri. Ada beberapa kesulitan di sini. Jika kita lulus program dalam bahasa yang ditafsirkan (terbuka), seperti Python, maka klien dapat melakukan apa pun yang dia inginkan dengannya. Tidak mungkin mengontrol penyalinan dan modifikasi kode selanjutnya. Jika kita mentransfernya dalam bentuk yang dikompilasi, maka, pertama, itu tidak selalu nyaman bagi klien, dan kedua, tidak akan sulit untuk melacak logika algoritma dan mereplikasi itu. Bahkan jika kita membingungkan kode sebelumnya dan menghapus semua informasi debug, kita dapat membongkar dan melacak logika algoritma, karena, kemungkinan besar, jumlah kode untuk analisis tidak akan terlalu besar. Dengan demikian, kedua lintasan menyebabkan programmer gagal. Pikiran tentanguntuk menghasilkan kekayaan intelektual dalam bentuk beberapa algoritma khusus dan hidup dengan penghasilan pasif darinya sepanjang hidup saya tetap menjadi mimpi ... Atau tidak?



Revolusi beberapa tahun terakhir



Selama dekade terakhir, beberapa bidang teoritis kriptografi telah berubah secara kolosal dari konstruksi teoretis yang tidak dapat direalisasikan menjadi solusi terapan. Salah satu bidang ini adalah enkripsi homomorfik.



Homomorfisme cipher adalah bahwa perubahan pada teks cipher mirip dengan perubahan yang dilakukan pada teks asli. Misalkan Enc () adalah fungsi enkripsi, dan Dec () adalah fungsi dekripsi; maka penambahan homomorfisme dapat dinyatakan sebagai x + y = Dec ( Enc ( x ) + Enc ( y )). Demikian pula - dengan penggandaan: xy= Des ( Enc ( x ) ∙ Enc ( y )). Jika sebuah cipher memiliki homomorfisme baik sebagai tambahan maupun multiplikasi, maka ia disebut Enkripsi Homomorfik Sepenuhnya (FHE). Mengapa ini cukup? Karena skema logis apa pun dapat dibangun pada operasi ini. Secara khusus, NAND ( A , B ) = 1 + AB, dan NAND, pada gilirannya, adalah gerbang universal, yaitu, melalui itu Anda dapat mengekspresikan operator logis lainnya dan menulis program apa pun. Gagasan pertama tentang sandi homomorfik muncul sejak lama - pada tahun 1976. Namun, implementasi pertama dari sandi semacam itu hanya dijelaskan pada tahun 2009 ( Craig Gentry. Enkripsi sepenuhnya Homomorfik Menggunakan Kisi-Kisi Ideal. Dalam Simposium ACM ke-41 tentang Teori Komputasi (STOC), 2009 ). Desain ini sangat terbatas dalam aplikasi praktis sehingga diperlukan sekitar 30 menit perhitungan per operasi dasar dengan kekuatan kriptografi yang cukup dari panjang kunci. Selama beberapa tahun ke depan, banyak sirkuit FHE yang berbeda telah muncul yang lebih cocok untuk implementasi praktis seperti itu. Beberapa yang paling terkenal adalah BGV dan CKKS (Z. Brakerski, C. Gentry, dan V. Vaikuntanathan. Enkripsi Sepenuhnya Homomorfik tanpa Bootstrapping, ITCS 2012 dan Cheon, Jung Hee; Kim, Andrey; Kim, Miran; Song, Yongsoo. Enkripsi homomorfik untuk aritmatika angka perkiraan. Kemajuan dalam Kriptologi - ASIACRYPT 2017. Springer, Cham. hlm. 409-437 ). Ini diikuti oleh munculnya banyak implementasi open-source dan perpustakaan yang mengimplementasikan sandi homomorfik. Salah satu yang pertama adalah IBM dengan perpustakaan HElib (2013), kemudian HEAAN dari Seoul National University (2016), PALISADE dari DARPA (2017), diperpanjang SEAL dari Microsoft (2018) dan banyak implementasi lainnya, termasuk dipercepat oleh GPU, FPGA, dll.



Menggunakan contoh FHE, orang dapat melihat bagaimana dalam 10 tahun jalan telah dilalui dari ide-ide teoritis abstrak ke solusi terapan spesifik. Kriptografi homomorfis membuka sejumlah perspektif baru: misalnya, memungkinkan untuk bekerja dengan data tanpa dekripsi. Sebelumnya, untuk mengekstraksi dan memproses informasi dari database terenkripsi besar, pertama-tama perlu untuk mengunduh seluruh database, mendekripsi, mengubahnya di tempat yang tepat, dan kemudian mengenkripsi dan mengirimkannya kembali. Sekarang ini dapat dilakukan dalam satu operasi. Dalam database terenkripsi, kami segera menemukan sel yang diinginkan dan memodifikasinya tanpa terpaksa mendekripsi seluruh tabel.



Sekarang, kembali ke skema “in-cloud”, kita dapat mengimplementasikan platform perdagangan jarak jauh (“marketplace”) dari algoritma, di mana dimungkinkan untuk mengirim data yang tidak terbuka, tetapi terenkripsi. Ini membuat tata letak bisnis jauh lebih realistis. Sekarang setiap akses ke layanan tidak mengharuskan klien untuk mengungkapkan apa pun. Kami dapat mengirim informasi pribadi, mengumpulkan data besar dan informasi rahasia terenkripsi lainnya dan menerima hasil pemrosesan juga dalam bentuk terenkripsi, kunci yang hanya ada pada kami.



Lintasan lain adalah menjual akses ke algoritma di tempat. Di sini perlu diperhatikan penemuan kriptografi lain dalam beberapa tahun terakhir. Ini adalah apa yang disebut kebimbangan indistinguishability. Gagasan kebingungan yang tidak dapat dibedakan pertama kali disuarakan pada tahun 2001 ( B. Barak, O. Goldreich, R. Impagliazzo, S. Rudich, A. Sahai, SP Vadhan, dan K. Yang. Tentang kemungkinan program pengaburan. 2001, hlm. 1-18) sehubungan dengan kebutuhan untuk memikirkan kembali masalah kebingungan yang diformalkan, karena pendekatan sebelumnya untuk itu dari sudut pandang matematika tidak sepenuhnya benar dan tidak memberikan indikator yang terukur seberapa baik atau buruknya program dikaburkan. Pada 2013, praktis tim peneliti yang sama mengusulkan solusi untuk masalah yang mereka atur sendiri pada tahun 2001. Mereka berhasil menemukan desain yang bisa menjadi kandidat untuk obfuscator seperti itu ( Sanjam Garg; Craig Gentry; Shai Halevi; Mariana Raykova; Amit Sahai; Brent Waters. Kandidat Ketidakpastian Indistinguishability Pengaburan dan Enkripsi Fungsional untuk semua Sirkuit. Focs 2013, 40-49 ). Inti dari kebingungan dapat dibedakan dapat dijelaskan sebagai berikut. Katakanlah kita memiliki program seperti obf(), yang menerima kode program tertentu pada input, dan mengeluarkannya dalam bentuk yang membingungkan (membingungkan) pada output. Selain itu, jika kita memiliki dua program dengan fungsi yang sama A dan B , maka setelah menerima versi mereka yang membingungkan, obf ( A ) dan obf ( B), kita tidak akan dapat memahami dengan akurasi nilai-nilai yang dapat diabaikan yang mana dari keduanya diumpankan ke input obfuscator (pendekatan yang sama digunakan untuk merumuskan ketidaktentuan algoritma enkripsi). Dari sini mengikuti beberapa kesimpulan yang tidak jelas, salah satunya adalah kemampuan program pada keluaran obfuscator untuk menyimpan "rahasia" di dalam dirinya sendiri. Ini bisa, misalnya, kunci enkripsi - kemudian dikirimkan bersama dengan kode yang dapat dieksekusi dan pada saat yang sama tidak dapat diekstraksi.



Kemungkinan bonus dari menggunakan kebingungan yang tidak bisa dibedakan tidak terbatas pada hal ini. Konsekuensi penting lainnya dari penggunaan kode yang tidak dapat dibedakan adalah kurangnya kebutuhan untuk mempercayai komponen perangkat keras. Pemrosesan data apa pun dapat dilakukan pada perangkat keras yang tidak terpercaya. Akibatnya, miliaran yang dihabiskan untuk pengembangan komputer domestik, atau konfrontasi antara Huawei dan Amerika Serikat, menjadi tidak berarti jika diperdebatkan oleh persyaratan kepercayaan pada perangkat keras. Tetapi ini adalah pokok dari artikel lain.



Dalam kasus penjualan algoritma, dimungkinkan untuk mentransfer kode yang dikaburkan ke klien. Pada saat yang sama, bahkan jika kita memasukkan beberapa individualisasi kode untuk pengguna tertentu, klien tidak akan dapat "mengekstrak" bagian yang dikustomisasi ini dari kode. Akibatnya, kami tidak hanya membuat mustahil untuk menganalisis prinsip-prinsip algoritma, tetapi juga mendapatkan cara untuk memasok program dengan label yang tidak terpisahkan dari mereka, yang akan selalu meninggalkan tanda digital ketika didistribusikan di Internet. Namun, perlu dicatat bahwa implementasi kebingungan yang tidak dapat dibedakan saat ini begitu rumit sehingga terlalu dini untuk membicarakan penggunaan praktisnya. Kemungkinan besar (tidak seperti di cloud), kita akan melihat skema implementasi di lokasi tidak lebih awal dari 10 tahun.



Prakiraan dan peringatan



Dengan demikian, kita melihat bahwa dalam 5 tahun ke depan atau lebih, pasar untuk algoritma dapat muncul dalam bentuk skema cloud, dan selanjutnya, dimungkinkan untuk melakukan "on-premise". Tentu saja, ini tidak akan terjadi dalam semalam. Untuk pembentukan hubungan seperti itu harus tetap muncul:



  1. Platform (atau platform) untuk pertukaran data antara penyedia dan konsumen algoritma. Mereka harus secara otomatis melakukan semua fungsi FHE pada tingkat lapisan transport tertentu. Maka layanan akan benar-benar menjadi nyaman dan, yang paling penting, dapat dipahami oleh semua pelaku pasar, karena sekarang hanya sedikit pakar TI yang tahu apa itu FHE dan bagaimana cara menerapkannya.
  2. Pertukaran data besar masih terhambat oleh terbatasnya saluran komunikasi. Oleh karena itu, di sini perlu untuk menunggu hingga bandwidth saluran tumbuh secara organik ke nilai yang diperlukan, atau untuk meluncurkan layanan pemrosesan data tambahan di sisi klien, yang dapat menjadi bagian dari platform dan kerangka kerja di bagian 1.


Pengembangan pasar untuk algoritma dapat memiliki dampak signifikan pada banyak sektor ekonomi. Beberapa area dapat diidentifikasi yang pasti akan dipengaruhi oleh transformasi ini.



Data besar.Konfigurasi pasar big data modern dibuat tidak hanya dari set data itu sendiri, tetapi juga - bahkan lebih - dari pusat analitik yang mampu mengekstraksi pengetahuan dan membangun model berdasarkan informasi ini. Setiap pengumpul data besar, seperti operator telekomunikasi, bank atau ritel, memiliki staf analis sendiri yang mengembangkan model untuk mengekstraksi pengetahuan dan menjual bahan-bahan ini ke konsumen lain. Jika pasar yang kaya algoritma dan model untuk bekerja dengan data tersedia secara bebas, unit-unit ini akan kehilangan signifikansinya. Akumulator bigdata tidak akan lagi dapat menambah nilai pada informasi yang diekstraksi dari data besar dan akan dipaksa untuk hanya menjual bahan baku, yang biayanya juga akan mulai mendevaluasi dari waktu ke waktu, sepertibagaimana bahan baku klasik (minyak, gas, aluminium, dll.) mengalami depresiasi sekarang.



Tiga tingkat perkembangan. Dikotomi pengembangan klasik saat ini adalah "backend versus frontend". Yang terakhir menulis antarmuka pengguna, yang pertama menulis seluruh logika sisi server dari aplikasi. Di sini layer baru dapat dibentuk, yang dapat ditunjuk sebagai “algoend”. Algoritma kunci, paling penting dan kompleks (NLP, ML / AI, Data Mining, Blockchain, dll.) Akan diletakkan di atasnya. Dengan kata lain, algoend adalah konten penting dari setiap pengembangan, dan frontend dan backend adalah individualisasinya untuk proyek tertentu. Algoend akan membutuhkan kualifikasi maksimum dan akan masuk ke bidang layanan tambahan, membentuk pasar baru untuk layanan. Pada gilirannya, frontend dan backend adalah pasar tenaga kerja, yang biayanya akan berkurang.



Pasar C2B.Dari dua poin pertama, seseorang dapat menarik kesimpulan tentang transformasi yang terjadi di pasar tenaga kerja. Pengembangan teknologi baru di bidang cybersecurity akan memungkinkan untuk menghidupkan kembali sektor C2B yang sekarang hampir tidak ada. Dengan kata lain, kita bergerak dari skema hukum kontrol kekayaan intelektual (yang hanya bisa diperjuangkan perusahaan besar sekarang) ke skema teknologi yang dapat digunakan siapa pun. Jika kekayaan intelektual yang dihasilkan tidak dapat dipisahkan dari layanan yang menggunakannya, maka tidak perlu biaya hukum dan organisasi untuk mempertahankan rezim penggunaannya.



Pasar layanan hukum. Secara umum diterima bahwa transisi ke ekonomi informasi menciptakan permintaan besar bagi pengacara yang berurusan dengan paten dan sengketa hukum. Sampai suatu saat, itu benar-benar terjadi. Namun, selama 10 tahun atau lebih di muka, saya akan memprediksi kematian lengkap pasar ini untuk layanan (setidaknya di bidang TI). Sudah, mematenkan dan mendaftarkan algoritma tampak seperti prosedur perlindungan yang tidak terlalu praktis dan benar-benar sesuatu, semua pengembang lebih cenderung meninggalkan perkembangan penting sebagai semacam pengetahuan daripada mengungkapkan dan mematenkan hasil. Fakta penting lainnya ditambahkan di sini - kode pada keluaran obfuscator yang tidak dapat dibedakan tidak dapat menjadi subjek hak cipta. Ini mengikuti dari definisi kebingungan yang tidak dapat dibedakan, karena tidak mungkin untuk menentukan dan membuktikannyastruktur perangkat lunak apa yang diberikan kepadanya di pintu masuk. Saya akan memprediksi bahwa tidak akan ada lagi perselisihan hukum di industri TI 10 tahun kemudian, setidaknya - dalam bentuk yang kami sajikan sekarang.



Perkiraan yang disuarakan dalam artikel ini, tentu saja, seperti prediksi lainnya, mungkin tidak menjadi kenyataan. Penemuan dan pengembangan dalam R&D adalah bidang yang paling tidak berterima kasih untuk perkiraan. Kita tidak bisa mengatakan, misalnya, bahwa desain rumit kebingungan yang tidak dapat dibedakan saat ini akan diperbaiki dan menjadi praktis dalam 5 tahun. Ini mungkin tidak terjadi. Akan lebih tepat untuk mengasumsikan bahwa ramalan itu sendiri dan kesimpulan dari artikel ini cenderung menjadi kenyataan, tetapi periode waktu di mana mereka diletakkan menanggung ketidakpastian yang jauh lebih besar.



Artikel asli diterbitkan di sini



All Articles