Apple kompaniyasining CSAM tizimi aldangan, ammo kompaniya ikkita himoyaga ega

Yangilash: Apple serverning ikkinchi tekshiruvini eslatib o'tdi va kompyuterni ko'rish bo'yicha professional kompaniya buni quyida "Ikkinchi tekshirish qanday ishlashi" bo'limida tasvirlash mumkinligi haqida gapirdi.
Ishlab chiquvchilar uning qismlarini teskari ishlab chiqqandan so'ng, Apple CSAM tizimining dastlabki versiyasi begunoh tasvirni belgilash uchun samarali tarzda aldangan.Biroq, Apple buni real hayotda sodir bo'lishining oldini olish uchun qo'shimcha himoya vositalariga ega ekanligini aytdi.
Eng so'nggi ishlanma NeuralHash algoritmi GitHub ochiq kodli ishlab chiquvchi veb-saytida e'lon qilinganidan keyin sodir bo'ldi, har kim u bilan tajriba o'tkazishi mumkin ...
Barcha CSAM tizimlari yo'qolgan va ekspluatatsiya qilingan bolalar milliy markazi (NCMEC) kabi tashkilotlardan ma'lum bo'lgan bolalar jinsiy zo'ravonlik materiallari ma'lumotlar bazasini import qilish orqali ishlaydi.Ma'lumotlar bazasi tasvirlardan xesh yoki raqamli barmoq izlari ko'rinishida taqdim etiladi.
Aksariyat texnologiya gigantlari bulutga yuklangan fotosuratlarni skanerlashsa-da, Apple saqlangan fotosuratning xesh qiymatini yaratish uchun mijozning iPhone-da NeuralHash algoritmidan foydalanadi va keyin uni CSAM xesh qiymatining yuklab olingan nusxasi bilan taqqoslaydi.
Kecha ishlab chiquvchi Apple algoritmini teskari ishlab chiqqanini va kodni GitHub-ga chiqarganini da'vo qildi - bu da'vo Apple tomonidan samarali tasdiqlandi.
GitHib chiqarilganidan keyin bir necha soat o'tgach, tadqiqotchilar ataylab noto'g'ri musbat - bir xil xesh qiymatini yaratadigan ikkita mutlaqo boshqa tasvirni yaratish uchun algoritmdan muvaffaqiyatli foydalanishdi.Bu to'qnashuv deb ataladi.
Bunday tizimlar uchun har doim to'qnashuv xavfi mavjud, chunki xesh, albatta, tasvirning juda soddalashtirilgan tasviridir, ammo kimdir tasvirni juda tez yaratishi ajablanarli.
Bu erda qasddan to'qnashuv faqat kontseptsiyaning isbotidir.Ishlab chiquvchilar CSAM xesh ma'lumotlar bazasiga kirish imkoniga ega emaslar, bu real vaqt tizimida noto'g'ri pozitivlarni yaratishni talab qiladi, ammo bu to'qnashuv hujumlari printsipial jihatdan nisbatan oson ekanligini isbotlaydi.
Apple algoritm o'z tizimining asosi ekanligini samarali tasdiqladi, ammo anakartga bu oxirgi versiya emasligini aytdi.Kompaniya, shuningdek, uni hech qachon maxfiy saqlash niyatida emasligini ta'kidladi.
Apple elektron pochta orqali Motherboard’ga GitHub’da foydalanuvchi tomonidan tahlil qilingan versiya iCloud Photo CSAM aniqlash uchun ishlatiladigan yakuniy versiya emas, balki umumiy versiya ekanligini aytdi.Apple algoritmni ham oshkor qilganini aytdi.
"NeuralHash algoritmi [...] imzolangan operatsion tizim kodining bir qismidir [va] xavfsizlik tadqiqotchilari uning xatti-harakati tavsifga mos kelishini tekshirishlari mumkin", deb yozgan Apple hujjati.
Kompaniya yana ikkita qadam borligini aytdi: o'z serverida ikkinchi darajali (maxfiy) mos keladigan tizimni ishga tushirish va qo'lda ko'rib chiqish.
Apple shuningdek, foydalanuvchilar 30 o'yinlik chegaradan o'tgandan so'ng, Apple serverlarida ishlaydigan ikkinchi ommaviy bo'lmagan algoritm natijalarni tekshirishini aytdi.
"Ushbu mustaqil xesh noto'g'ri NeuralHash qurilmadagi shifrlangan CSAM ma'lumotlar bazasiga CSAM bo'lmagan tasvirlarning qarama-qarshi aralashuvi tufayli mos kelishi va mos keladigan chegaradan oshib ketishi ehtimolini rad etish uchun tanlangan."
Roboflow'dan Bred Dvayer to'qnashuv hujumi kontseptsiyasining isboti sifatida joylashtirilgan ikkita rasmni osongina ajratish yo'lini topdi.
Menga bu tasvirlar o'xshash, ammo boshqa neyron xususiyatli OpenAI-ning CLIP-da qanday ko'rinishi qiziq.CLIP NeuralHash bilan bir xil ishlaydi;u tasvirni oladi va tasvir mazmuniga mos keladigan xususiyat vektorlari to'plamini yaratish uchun neyron tarmoqdan foydalanadi.
Ammo OpenAI tarmog'i boshqacha.Bu rasm va matn o'rtasida xaritalash mumkin bo'lgan umumiy model.Bu shuni anglatadiki, biz undan inson tushunadigan tasvir ma'lumotlarini olish uchun foydalanishimiz mumkin.
Yuqoridagi ikkita to'qnashuv tasvirini CLIP orqali o'tkazdim, u ham aldanganmi yoki yo'qmi.Qisqa javob: yo'q.Bu shuni anglatadiki, Apple aniqlangan CSAM tasvirlariga ularning haqiqiy yoki soxta ekanligini aniqlash uchun ikkinchi xususiyat ekstraktor tarmog'ini (masalan, CLIP) qo'llashi kerak.Bir vaqtning o'zida ikkita tarmoqni aldaydigan tasvirlarni yaratish ancha qiyin.
Va nihoyat, yuqorida aytib o'tilganidek, rasmlar CSAM ekanligini tasdiqlash uchun qo'lda ko'rib chiqiladi.
Xavfsizlik bo'yicha tadqiqotchining ta'kidlashicha, yagona haqiqiy xavf - bu Apple-ni bezovta qilmoqchi bo'lgan har bir kishi inson sharhlovchilariga noto'g'ri ijobiy ma'lumotlarni taqdim etishi mumkin.
“Apple aslida ushbu tizimni ishlab chiqqan, shuning uchun xesh funksiyasi sir saqlanishi shart emas, chunki “CSAM sifatida CSAM boʻlmagan” bilan qilishingiz mumkin boʻlgan yagona narsa bu Apple javob guruhini filtrlarni yoʻq qilish uchun keraksiz tasvirlar bilan bezovta qilishdir. Tahlil Quvurdagi axlatlar noto'g'ri pozitivdir ", dedi Nikolas Uiver, Kaliforniya universitetining Xalqaro kompyuter fanlari instituti katta ilmiy xodimi, Berkli, Motherboard ga onlayn suhbatda.
Maxfiylik bugungi dunyoda tobora ortib borayotgan muammodir.Bizning ko'rsatmalarimizdagi maxfiylik, xavfsizlik va boshqalar bilan bog'liq barcha hisobotlarga rioya qiling.
Ben Lovejoy britaniyalik texnik yozuvchi va 9to5Mac uchun Yevropa Ittifoqi muharriri.U o'zining ustunlari va kundalik maqolalari bilan mashhur bo'lib, vaqt o'tishi bilan yanada kengroq sharhlar olish uchun Apple mahsulotlari bilan tajribasini o'rganadi.U romanlar ham yozadi, ikkita texnik triller, bir nechta qisqa ilmiy-fantastik filmlar va rom-kom!


Yuborilgan vaqt: 20-avgust-2021-yil