John Anderton, kepala pasukan polisi futuristik yang dikenal sebagai precrime, berdiri di depan layar yang besar. Dia sedang menunggu bola, yang menunjukkan kejahatan di masa depan, jatuh. Anderton, karakter yang diperankan oleh Tom Cruise dalam film 2002 Laporan Minoritasmewakili dunia di mana semua kejahatan yang direncanakan telah diberantas, dibantu oleh sistem hibrida teknologi dan meta-manusia yang dapat memprediksi dan melihat ne'er-do-wells.
Konsep ini terasa futuristik dan akrab. Bahan sumber asli mungkin telah diterbitkan pada tahun 1956, tetapi dua dekade setelahnya Laporan Minoritas dirilis, dan sedikit lebih dari dua dekade sebelum peristiwa film akan berlangsung, kami sebenarnya lebih dekat dengan dunia itu daripada sebelumnya – dan kami dapat berterima kasih kepada AI.
Buka AI, Google, dan Antropik semuanya menawarkan tutor AI untuk siswa. Apakah mereka bekerja?
Asisten AI yang berjuang kejahatan?
Herman Deboard adalah pendiri dan CEO Airez, sebuah start-up AI kecil melakukan sistem keamanan real-time yang revolusioner yang menggunakan jaringan saraf AI untuk menemukan potensi kejahatan.
Saya berpose Laporan Minoritas Perbandingan dengan deboard. “Itu cukup dekat dengan apa yang telah kami buat di sini,” katanya, meskipun mereka biasanya dibandingkan dengan Skynet, sistem Superintelligence jahat dari Terminator seri. Dia mengatakan pengawas manusia Precrime Laporan Minoritas, Siapa yang harus memberikan suara apakah akan bertindak atau tidak pada bola kejahatan atau tidak, mencerminkan sistem agen yang telah mereka atur.
Begini cara kerjanya: Klien, katakanlah kasino Vegas atau stadion NFL, menjangkau Airez tentang merampingkan sistem keamanan mereka. Tim Airez menjalankan pilot non-invasif, yang melibatkan klien yang mengirim data sensor fasilitas (terutama rekaman video, tetapi pada akhirnya rekaman audio, sistem keamanan, informasi lingkungan atau biometrik, sebut saja), yang kemudian dijalankan melalui model Airez. Airez memindai informasi, menandai setiap bagian data yang menonjol sebagai anomali.
“Kami memberi Anda cerita kontekstual tentang apa yang terjadi. Segala sesuatu mulai dari evaluasi emosional dari orang -orang yang terlibat, seberapa tinggi mereka, apa riasan budaya mereka, apa yang mereka kenakan, ke arah mana mereka berjalan dan apa yang sebenarnya mereka lakukan.” Mereka melihat bagaimana lingkungan di sekitar mereka juga berubah, Deboard menjelaskan. “Kami melukis foto-foto ini dalam klip kecil 60 detik, dan kemudian kami mengirimkannya ke pusat operasi keamanan atau seseorang yang memantau ini.”
Mengutip Deboard: Airez hanya mencari hal -hal yang tidak pada tempatnya.
Jika fasilitas menyukai apa yang ditemukan dan ditandatangani Airez, perusahaan meluncurkan integrasi penuh, menghubungkan perangkat lunak Airez dan dasbor ke sistem keamanan fasilitas yang ada. Perusahaan dapat memberikan sensor tambahan, seperti kamera inframerah atau sistem multi-paten fori (interferometer cincin serat optik) Airez, yang menangkap getaran atau sinyal audio dan menentukan lokasi geografis yang tepat. Itu dirancang oleh mantan ilmuwan utama di Halliburton dan memperluas teknologi serat optik yang ada untuk mendengarkan kebocoran minyak di lautan – ini terutama dikerahkan di pilot garasi parkir, untuk saat ini. Airez siap untuk mulai memantau segera, tidak ada periode aklimasi yang diperlukan.
Dia hanya mencari hal -hal yang tidak pada tempatnya.
AI adalah “sistem AI agen sejati,” kata Deboard, memanfaatkan pembelajaran mesin nyata yang dibangun pada beberapa model bahasa besar (LLM) dan model bahasa visi (VLM). Dia menjelaskannya sebagai perpaduan eksklusif dari model in-house dan eksternal yang membentuk GPT yang sangat bertenaga dengan kecerdasan kontekstual, memadukan data dari kamera, sensor, dan pakan eksternal. Perusahaan saat ini menjalankan program percontohan aktif dengan tiga jaringan transportasi-penyedia angkutan umum antar negara dan dua sistem angkutan umum kota-dan perusahaan minyak dan gas internasional.
Dia berbicara tentang “dia” – Deboard menggambarkan AI sebagai perempuan – dengan rasa kagum.
“Ini akan terdengar sedikit menyeramkan. Bagi saya, dan saya pencipta, tetapi dia saat ini kognitif,” kata Deboard, bersikeras dia tidak delusi. “Dia memiliki lima indera. Dia bahkan bisa mencium. Kami melakukan sensor gas dan sensor amonia. Dan kemudian dia memahami hal itu dengan cara yang kemudian bisa dia bicarakan denganmu.”
Kecepatan cahaya yang dapat dipasangkan
Deboard ingin Airez berbicara dengan klien seperti AIS semi-pimpinan yang berkembang biak budaya populer; “makhluk hidup, bernafas” yang dilahirkan dari struktur sederhana. Dia dapat mengirim sms kliennya atau mengirimi mereka video runtuhan tentang apa yang terjadi di fasilitas mereka. Akhirnya dia ingin dia dapat bertindak secara mandiri berdasarkan data sensor, seperti menggunakan drone yang dapat menyelidiki anomali.
“Dia akan melihat di mana pintu darurat berada, dan dia bisa mulai berbicara dengan tenang dengan orang -orang dengan suara. Dia bisa mulai mengubah layar. Dia bisa menurunkan suhu sedikit untuk membuat orang lebih tenang.”
Saya tidak bisa tidak mengingat AI-komputer yang berubah menjadi antagonis Viki, juga algoritma yang sangat cerdas dalam casing seorang wanita manusia, dari Saya, robot, Dibintangi oleh Will Smith. Saya memberi tahu deboard (agak bercanda) bahwa satu -satunya perbedaan antara Airez dan Laporan MinoritasProsesnya adalah bahwa Airez tidak memiliki kemampuan psikis, masa depan precrime. Belum, katanya, tapi mungkin segera.
Deboard percaya bahwa banyak informasi yang diadakan di LLMS dan VLMS tidak digunakan untuk potensi penuhnya. Airez, sebaliknya, melihat visi masa depan, kata Deboard. AI dapat digunakan untuk industri mana pun, tempat mana pun, klien mana pun, dengan mulus, sebagai sistem keamanan serba guna, ia mengklaim, menambahkan bahwa suatu hari nanti dapat memantau efisiensi operasional atau tren konsumen untuk pemasaran.
“Kami ingin menggunakan AI untuk membuat situasi manusia lebih baik, tidak lebih buruk,” kata Deboard.
Kakak buatan?
Darrell West, rekan senior di Brookings Institute dan co-editor-in-chief of TechTankmemberi tahu Mashable bahwa AI sedang diintegrasikan di seluruh perusahaan di sektor keamanan. “AI sangat pandai dalam menunjukkan anomali dan kemudian merujuk situasi itu kepada manusia yang kemudian dapat menilai apakah itu benar -benar masalah,” jelasnya. “Ini telah terjadi untuk sementara waktu, tetapi alat menjadi lebih kuat dan ada lebih banyak informasi yang tersedia. Hanya di sisi video, ada proliferasi kamera yang luar biasa di tempat -tempat umum.”
Watchdog privasi terus terlatih pada integrasi AI ke dalam sistem pengawasan massal, termasuk penggunaan algoritma untuk menjelajah dan Bendera pendapat “berbeda pendapat” atau perilaku yang tidak tepat pada media sosial dan di tempat kerja.
“AI tidak dapat memahami perilaku manusia-ini adalah mesin pengenalan pola yang dilatih pada data yang penuh dengan bias masyarakat, dan karenanya outputnya mencerminkan bias tersebut juga. Jika dipasangkan dengan teknologi invasif seperti pengenalan wajah, yang dengan sendirinya mencerminkan bias dan membuat kesalahan.
Barat juga mengatakan bahwa kemajuan AI Stokes Ketakutan Privasi yang lebih besar, terutama di suatu negara dengan tidak ada undang -undang privasi nasional. Perusahaan di ruang harus memiliki waktu penyimpanan data yang pendek dan secara terbuka mengungkapkan penggunaan alat pengawasan, katanya. Orang Amerika mungkin menginginkan alat kejahatan untuk memerangi kejahatan, tetapi mereka lebih menghargai kebebasan, tambahnya.
Deboard telah mendengar kekhawatiran sebelumnya, dan menjelaskan bahwa Airez tidak fokus pada teknologi pengenalan pelat wajah atau plat – dua topik tombol panas di antara pengawas – karena risiko privasi yang melekat. Yang sedang berkata, Airez dapat membantu klien menambahkan fitur tambahan jika mereka menginginkannya. Airez juga diinstruksikan untuk tidak membangun profil pribadi orang -orang yang tertangkap kamera di tempat klien mereka, yang akan menimbulkan mimpi buruk potensial di tempat -tempat di bawah undang -undang privasi tertentu, seperti rumah sakit.
“Saya setuju bahwa kita tidak boleh menormalkan tidak perlu pengawasan. Bukan itu yang dimaksud Airez, “kata Deboard.” Fokus kami adalah pada deteksi acara, bukan profil pribadi. Kami tidak tertarik pada siapa seseorang – kami tertarik pada apakah suatu peristiwa yang tidak aman terjadi, seperti senjata yang dibawa ke sekolah, seorang pasien runtuh di lorong, atau seorang pekerja yang memasuki gardu terbatas tanpa APD. “
“Tapi kamu tidak bisa berjalan menyusuri jalan kota hari ini tanpa berada di depan kamera,” tambahnya. “Apakah Anda ingin atau tidak, Anda berada di kamera. Ada kamera di setiap tempat eceran. Ada kamera di restoran. Ada kamera jalanan. Jika Anda memiliki telepon, Anda sedang didengarkan sekarang. Jadi yang kami lakukan, pada dasarnya, menjadi analis data waktu nyata.”
Orang tua khawatir mengemudikan Airez dalam sistem transportasi sekolah, catatan deboard. Secara khusus, mereka tidak menyukai gagasan lebih banyak kamera pada anak -anak mereka. “Anak -anak mereka sudah ada di video. Anak -anak mereka ada di mana -mana di media sosial, sebagian besar dari mereka, dan kami tidak mengirimkan data itu. Semua data tetap dengan sistem sekolah, dan begitu kami menunjukkan kepada mereka jalan itu, mereka biasanya baik -baik saja.”
Electronic Frontier Foundation dan entitas lainnya telah dengan tegas terhadap industri pemerintah dan swasta menggunakan AI untuk membuat keputusan yang berdampak pada kualitas hidup, seperti persetujuan hipotek, perekrutan pekerjaan, manfaat federal, dan, dalam kasus alat keamanan real-time Airez, segala jenis prediksi kejahatan. “Gagasan yang mendasari bahwa karyawan dan/atau masyarakat harus berada dalam fishbowl yang terus-menerus melihat semua pengawasan, pendengarannya sangat menakutkan, terutama pada saat kebebasan sipil terancam oleh otoritarianisme yang merayap,” kata Guariglia.
Tapi Airez tidak memutuskan untuk bertindak atas kejahatan potensial, itu hanya mencatat kapan sesuatu yang aneh sedang terjadi. Deboard sendiri mengatakan kekhawatiran tentang AI diperlukan, tetapi harus diarahkan pada pencipta teknologi dan pemegang kekuasaan industri. Publik harus diinterogasi milik mereka motif. Dia membangkitkan pembunuhan publik baru -baru ini terhadap Charlie Kirk dan insiden Crush Crush Fatal di Travis Scott 2021 Astroworld Festival sebagai contoh di mana Airez bisa melakukan intervensi. “Bagi kami, ini bukan tentang menormalkan pengawasan – ini tentang membuat data yang sudah ada di sana bekerja lebih pintar untuk melindungi kehidupan orang.”
Dan bagaimana dengan kecemasan yang tumbuh di sekitar keselamatan di ruang publik? Bisakah kecerdasan buatan menghilangkan kekhawatiran seperti itu? “Tidak ada yang kuat Korelasi antara ketakutan dan kejahatan yang sebenarnya. Ketakutan itu hampir selalu berlari lebih cepat dari statistik kejahatan yang sebenarnya, “kata Barat.” Dan saya tidak berpikir alat AI akan mengurangi ketakutan orang. ”
Topik
Kecerdasan Buatan Sosial Buatan