• arik klein

בינה מלאכותית: עידן של סיכונים חדשים

עודכן ב: 24 ספט 2019


"מי שישלוט בבינה המלאכותית ישלוט בעולם"

כך הכריז ב- 2017 ולדימיר פוטין. מומחים צבאיים ייחסו כמובן את האמירה לשליטה צבאית, בעוד אחרים, ואני ביניהם, חושבים שפוטין התכוון לשליטה מדינית, תודעתית ובמיוחד כלכלית.

הבינה המלאכותית מלווה אותנו כבר למעלה מ- 60 שנה, תמיד ידענו שהיא קיימת, במיוחד בסרטים – בחלקם מכונות תבונתיות סייעו לבני האדם לנהל את העולם ובמקרה הפחות האדם שירת את המכונה. אם כך, נשאלת השאלה, מה גרם לפוטין לצאת בהצהרה כל כך דרמטית? האם מתרחשת מהפכה טכנולוגית מתחת לעינינו? ובמידה וכן, כיצד היא תשפיע על חיינו ובאיזה מידה היא מסוכנת לאדם הפשוט, לארגונים ולאנושות?

המונח בינה מלאכותית (AI - Artificial Intelligence) נטבע בשנת 1956 ב- Dartmouth Conference שם נפגשו כל המומחים בתחום. במהלך השנים מאז, נעשו מחקרים ופיתוחים רבים אך עד לפני מספר שנים התחום נחשב עתידני וללא התקדמויות משמעותיות.



בשנים האחרונות חלה התפתחות דרמטית בתחום הבינה המלאכותית, ואחראים לכך שלושה וקטורים שחברו להם יחדיו:

  • התקדמות טכנולוגית בתחום המחשוב, ובפרט מחשוב הענן

  • עולם הקוד הפתוח ושיתוף המידע

  • התפתחויות בתחום האלגוריתמיקה וניתוח המידע (Data science)

אנו פוגשים היום, ונפגוש ביתר שאת בעתיד, מערכות תבונתיות מבוססות בינה מלאכותית, שישפרו את איכות החיים של המין האנושי בכל תחום:

סירי (Siri) וחברותיה ינהלו ביעילות את חיינו, מובילאיי יצמצם את מספר תאונות הדרכים, גיבורי התרבות יהיו דמויות תלת ממידיות מסונטזות ע"י מכונה, חוזים מסחריים יסוכמו בין מכונות, תחלואת העולם תצומצם, בעיית הרעב תיפתר ואפילו נקבל שירות יותר טוב במוקדי השירות הטלפוניים בזכות רובוטים.


אם כך, מדוע איילון מאסק מודאג?



בשנת 2018 צוטט איילון מאסק אומר כי "הבינה המלאכותית הרבה יותר מסוכנת מנשק גרעיני" – מדוע?

השימוש ההולך וגובר בבינה מלאכותית תורם ויתרום לארגונים ולאנושות, אולם כבר עתה ברור שארגונים ומדינות יידרשו להתמודד עם שלושה תחומי סיכון חדשים שהיא מביאה עמה:


  • תקיפות סייבר מבוססות יכולות בינה מלאכותית

באמצעות טכנולוגיות בינה מלאכותית ניתן לפתח מערכות שיוסיפו ערך משמעותי לארגון משום שיהיו מסוגלות לבצע במהירות משימות מורכבות מאוד ולהפיק תוצרים איכותיים ומגוונים. מצד שני, יכולות אלה של הטכנולוגיה יכולות לשמש גם תוקף סייבר שייצר באמצעותן תקיפות מתוחכמות באופן משמעותי מאלה שאנו מכירים כיום. ולראיה, כבר בימים אלה יש ניצנים של תקיפות סייבר כאלה. האם מערכות הסייבר של הארגון, יהיו מסוגלות לזהות מתקפות מתוחכמות שיבוצעו באמצעים של בינה מלאכותית? האם הן תהיינה מסוגלות להתמודד עם היקפים גדולים ומגוונים של תקיפות?


  • תקיפה של מערכות בינה מלאכותית

תהליך הפיתוח הייחודי של מערכת בינה מלאכותית וההתבססות המוחלטת על נתונים בזמן הפיתוח והפעלת המערכת, חושף כר נרחב וחדש של משטחי תקיפה שבאמצעותם תוקף יכול לפגוע בתהליכים עסקיים קריטיים של הארגון, לשבש אותם, להשבית אותם או אף לפגוע במערכות ובתהליכים אחרים בארגון. האם יודע הארגון מהם התהליכים העסקיים שמנוע בינה מלאכותית מניע אותם? האם העריך את הסיכון שתהליכים אלה יפגעו? האם הגדיר תהליכים שיבטיחו פיתוח מאובטח שינטרל את יכולות התקיפה?


  • פגיעה עסקית, אמינות, אתיקה ומשפט

מספר גופים מכוני מחקר, וביניהם מכון Future of Life שבסיסו בבוסטון, חוקרים בשנים האחרונות את הסיכונים הקיומיים העומדים בפני האנושות בעקבות השימוש במערכות מבוססות AI. האתגרים העיקריים שעליהם שמים המחקרים את הזרקור עוסקים בתחומי האתיקה של המערכות (שהרי הן מדמות בני אדם, עליהם חלים חוקים אתיים), בשאלות משפטיות ובהיבטי אמינות המכונות ויכולת האדם לסמוך עליהן.

דוגמאות לשאלות מחקר: האם מכונת AI מחויבת להיות הוגנת וכיצד ניתן להבטיח זאת? כיצד מבטיחים שהחלטות מכונת AI לא תהיינה מוטות ומפלות? מהן גבולות האחריות של המכונה? מי אחראי לתוצאות של החלטותיה? כיצד והאם נדרשת רגולציה שתגדיר מה מותר ומה אסור למכונה לעשות? ולסיום, האם השימוש במכונה בטוח לאדם – כיצד מבטיחים שהחלטות מכונת AI לא יפגעו בבני אדם וחמור מכך, יסכנו את קיום המין האנושי? בנוסף לפעילות האקדמית בנושא, מתקיימת פעילות רגולטורית ענפה בתחומים אלה.

.

הבינה המלאכותית כבר כאן ! היא מביאה עמה הזדמנויות עסקית גדול אך חושפת את הארגונים והנהלותיהם לעולם חדש של סיכונים.


בסדרת הפוסטים הבאים אעסוק בסוגיות הליבה של ההערכות הנהלות הארגונים לעולם המרתק של הבינה מלאכותית, ותדון בין היתר בנושאים הבאים:

  • כיצד ומה צריך לעשות בכדי להנהיג ארגון לקראת עידן הבינה המלאכותית?

  • מהם הסיכונים העסקיים וטכנולוגיים שארגון נדרש לנהל בשילוב מערכות AI?

  • מדוע מתייחסים למערכות AI כלא אמינות וככאלה שמייצרות אתגרים אתיית ומשפטיים?

  • אילו פתרונות תהליכיים מציעים הרגולטורים ברחבי העולם בכדי להתמודד עם האתגרים הללו?

  • מדוע תהליך פיתוח של מערכת AI חושף אותה לסיכונים חדשים, וכיצד תהליכי פיתוח מאובטח יחסנו אותה?

  • אילו טכנולוגיות, תהליכים ובקרות מפצות יקטינו באופן משמעותי הסיכונים שהבינה המלאכותית מביאה עימה?

בפוסט הבא אעסוק בהתפתחות הבינה המלאכותית מתוך תחומים שעל פניו נראים רחוקים מן התחום (ספוילר, מה הקשר בין משחקים לבין A.I.?), מוזמנים להמשיך ולעקוב.


ספרו לי מה מעניין אתכם ומסקרן אתכם בתחום !

אריק קליין

arikkl@gmail.com

צור קשר