שיתופים אחרונים

audio attack.png

Audio Adversarial Examples

january 1, 2020

בדומה לתקיפת מכונה לזיהוי תמונה, בה התוקף יוסיף הפרעה שלא ניתנת לזיהוי בעין בלתי מזוינת ויגרום לשיבוש תהליכי הזיהוי, גם תוקף של מכונת המרת קול לטקסט, יוסיף "רעש" שאוזן האדם לא מסוגלת לזהות על קטע הקול, ויגרום לשיטוי של המכונה כך שתזהה בקטע איזה טקסט שהוא ירצה.

is your ML secure.jpg

Is your ML Model secure?

September 10, 2019

למה חשוב לאבטח מערכת בינה מלאכותית? דמיינו לעצמכם שהמכונית האוטונומית שלכם, שעברה את כל בדיקות האיכות, משום מה מאיצה בסמוך לתמרור עצור. התסריט הזה לא מופרך בכלל ומדגיש את חשיבות אבטחת מערכות בינה מלאכותית. המאמר הקודם תיאר תקיפת מערכות באמצעות Adversarial attack.

מאמר זה ירחיב את היריעה ויתאר שיטות תקיפה נוספות מבוססות בינה מלאכותית.

Adversarial attacks.jpeg

Adversarial attacks: How to trick computer vision

September 1, 2019

מתקפה זו מנצלת חולשה אינהרנטית במערכת הבינה המלאכותית לתוקף לפגוע בתפקוד המכונה באמצעות שיבוש נתוני הקלט. הכרות עם מתקפה זו חשובה לכל מי שמשתמש או מפתח מערכות של בינה מלאכותית, משום שהיא אחד האיומים המרכזיים על המערכת. הפוסט הבא מסביר מתקפה זו ונותן דוגמאות מעולמות זיהוי תמונה וקול.

צור קשר