ژنراتور چهره جعلی AI را می توان دوباره باز کرد تا چهره اصلی آموزش دیده نشان داده شود


کائوتز گفت ، اما این فرض بر این است که شما می توانید این اطلاعات آموزشی را بدست آورید. او و همکارانش در انویدیا روش های متفاوتی را برای افشای اطلاعات شخصی ایجاد می کنند ، از جمله تصاویر چهره ها و اشیاء دیگر ، داده های پزشکی و غیره که به هیچ وجه نیازی به دسترسی به داده های آموزشی ندارند.

در عوض ، او یک الگوریتم ایجاد کرد که می تواند داده هایی را که مدل آموزش داده بود با تغییر در مراحل پردازش داده ها ، بازسازی کند. یک شبکه تشخیص تصویر آموزش دیده را انتخاب کنید: برای شناسایی آنچه در تصویر است ، شبکه از لایه های متعددی از نورون های مصنوعی عبور می کند. هر لایه روی سطوح مختلف اطلاعات کلیک می کند ، از گوشه ها گرفته تا اشکال تا ویژگی های آشنا تر.

تیم کائوتز دریافتند که می توان مدل را در وسط مرحله مختل کرد و جهت را معکوس کرد و یک تصویر ورودی از داده های داخلی مدل ایجاد کرد. او این تکنیک را با انواع مدل های تشخیص تصویر و GAN های رایج آزمایش کرد. در یک آزمایش ، او نشان داد که قادر به ایجاد تصاویر دقیق از ImageNet ، یکی از محبوب ترین مجموعه داده های تشخیص تصویر است.

تصاویر ImageNet (بالا) به همراه تفریحات تصویری ایجاد شده با بازپخش مدلی که در ImageNet آموزش دیده است (در زیر)

NVIDIA

همانطور که در کارهای وبستر ، تصویر بازتولید شده تقریباً شبیه تصویر واقعی است. کائوتز گفت: “ما از کیفیت پایان بازی شگفت زده شدیم.”

محققان می گویند چنین حملاتی فقط فرضی نیستند. تلفن های هوشمند و دیگر دستگاه های کوچک استفاده از AI را بیشتر و بیشتر کرده اند. به دلیل محدودیت در باتری و حافظه ، گاهی اوقات مدلها فقط در دستگاه خود نیمه پردازش می شوند و برای آخرین محاسبه به ابر ارسال می شوند ، روشی که به محاسبه تقسیم معروف است. کائوتز گفت ، محققان عموماً تصور می کنند که محاسبه تقسیم اطلاعات شخصی افراد از تلفن افراد را فاش نمی کند ، زیرا این تنها مدل نشان داده شده است. اما حملات او نشان می دهد که اینطور نیست.

کائوتز و همکارانش در حال کار بر روی راه هایی برای جلوگیری از نشت مدل اطلاعات شخصی هستند. وی گفت: ما می خواهیم خطرات را به منظور به حداقل رساندن آسیب پذیری ها درک کنیم.

اگرچه آنها از تکنیک های بسیار متفاوتی استفاده می کردند ، اما او فکر کرد که کارهای وی و وبستر می توانند متقابلاً کامل باشند. تیم وبستر اشاره می کند که داده های شخصی را می توان در خروجی مدل یافت. تیم کائوتز نشان می دهد که داده های شخصی را می توان با معکوس کردن و ایجاد مجدد ورودی بازیابی کرد. کائوتز گفت: “نگاه به هر دو جهت مهم است که بدانیم چگونه از حملات جلوگیری کنیم.”


تمامی اخبار به صورت تصادفی و رندومایز شده پس از بازنویسی رباتیک در این سایت منتشر شده و هیچ مسئولتی در قبال صحت آنها نداریم