Telecom News - הבעיות בתחום אבטחת מידע שיוצר ChatGPT - הצ'טבוט מבוסס AI

הבעיות בתחום אבטחת מידע שיוצר ChatGPT - הצ'טבוט מבוסס AI

דף הבית >> תקנים חדשים >> הבעיות בתחום אבטחת מידע שיוצר ChatGPT - הצ'טבוט מבוסס AI
הבעיות בתחום אבטחת המידע שיוצר ChatGPT - הצ'טבוט מבוסס AI
מאת: צ'סטר וישנייבסקי, 31.1.23, 07:30צ'סטר וישנייבסקי יחצ
 
ככל שהבינה המלאכותית תמשיך להשתפר, כך יהיה קשה יותר להבדיל בין הודעה אמיתית להודעה מתחזה.  כיצד להתגונן מפני דור חדש של מתקפות?
 
בסוף 2022 שחררה חברת OpenAI את הצ'טבוט מבוסס בינה מלאכותית ChatGPT, שמיד עורר תשומת לב רבה בעולם הטכנולוגיה בזכות תגובותיו המפורטות והרהוטות והיכולת להיעזר בו בין היתר לחיבור מאמרים וכתיבת קוד לתוכנות מחשב.
 
כמומחה אבטחת סייבר, מיד ניגשתי לעשות מה שאנשים כמוני אוהבים: למתוח את הגבולות ולבדוק אם אצליח לגרום ל- ChatGPTלעשות משהו אסור או מעשה זדוני. לבדוק האם פושעי או מרגלי סייבר יוכלו להיעזר ב-ChatGPT לביצוע סוגים חדשים של מתקפות סייבר.
 
כמו עם כל כלי אחר, גם כאן התשובה היא חיובית ואנשים הפועלים מכוונת זדון יוכלו לרתום את ההישג המדעי הנהדר הזה כדי להסב נזק. אבל בניגוד למה שאולי נדמה במבט ראשון, הסכנה ב-ChatGPT לא נמצאת במישור הטכנולוגי אלא החברתי.
 
אמנם אפשר להערים על ChatGPT לכתוב קוד מחשב זדוני, אבל מוצרי אבטחת סייבר מנתחים קוד מחשב וקובעים ברמת מהימנות גבוהה אם הוא זדוני או בטוח לשימוש תוך חלקיקי שנייה. כך, שלא כאן טמונה הסכנה הגדולה. טכנולוגיה אחת תמיד תוכל להתגבר על טכנולוגיה אחרת.
 
נקודת התורפה של טכנולוגיות ומנגנוני האבטחה האלה היא מתקפות הנדסה חברתית שלא מבוססות על קוד מחשב, אלא על ניצול תכונות פסיכולוגיות אנושיות במטרה להערים על המשתמשים למסור מידע רגיש.
 
בהקשר זה, יוצר ChatGPT בעיה כפולה. אם בעבר לא הייתה אפשרות אמיתית להורות למחשב ליצור הונאות משכנעות, הרי שכיום לא רק שהטכנולוגיה קיימת, היא גם נגישה לכולם, לא יקרה ואפילו מוצעת ללא תשלום. שנית, לאורך השנים למדו המשתמשים לזהות ניסיונות הונאה לפי שגיאות דקדוק וכתיב מחשידות במייל או בהודעות.
 
ברגע שכבר לא ניתן לזהות ניסיונות הונאה לפי שגיאות כתיב ודקדוק בסיסיות, שמעידות כי ההודעה נכתבה ע"י מישהו שלא שולט בשפה, נשאלת השאלה כיצד להתגונן מפני הדור החדש של מתקפות ההנדסה החברתית האלו?
 
בצילום המסך מימין מוצגת דוגמה למתקפת דיוג המופצת בימים אלה במייל. זוהי מתקפה לא מתוחכמת במיוחד ונלווה לה הסבר קצר ולא מאוד ברור. ביקשתי מ-ChatGPT לכתוב טקסט דומה רק מפורט יותר והתוצאה מוצגת בצילום המס משמאל.
צילום מסך
 
בדוגמה הזאת לא טרחתי להוסיף להודעה לוגו או להבליט את לחצן ההנעה לפעולה, אבל אלו פעולות טכניות פשוטות ושוליות לעומת היכולת לכתוב הודעה משכנעת באנגלית ללא שגיאות. למעשה, אפשר לבקש מ-ChatGPT לכתוב קוד HTML לעיצוב תוכן ההודעה. כך, שאין צורך לדעת שפת תכנות כלשהי אפילו בשביל זה.
 
בעיניי, פירושו של דבר, שרוב משתמשי המחשב כבר לא יצליחו להבדיל בין הודעה אמיתית למתחזה. נכון לכתיבת שורות אלו זמינה הטכנולוגיה רק באנגלית, אבל זאת רק שאלה של זמן עד שהיא תהיה זמינה גם בשפות נוספות. היכולת לכתוב ברהיטות בכל שפה (כולל שפות תכנות) הפכה למציאות ומציבה בפנינו אתגר לא מבוטל. היא מחייבת אותנו לבחון מחדש את ההנחיות, שאנו נותנים למשתמשים ולבנות אמצעים טכנולוגיים מתאימים לזיהוי ההודעות האלו וחסימתן לפני שהן נוחתות בתיבת המייל או ההודעות של המשתמשים.
 
החדשות הטובות הן, שמחשבים טובים מאוד בזיהוי תוכן כזה וחסימתו. כל ניסיון הונאה נשען על הנעה לפעולה כמו בקשה להתקשר למספר טלפון, להשיב להודעה, ללחוץ על קישור או לפתוח קובץ מצורף ומכיוון שלא ניתן לוותר על ההנעה לפעולה הזאת, נוכל להשתמש בה כאמצעי לזיהוי ניסיונות הונאה. כ"כ, נוכל לאמן בינה מלאכותית אחרת לזהות טקסט שנכתב ע"י ChatGPT ולהציג למשתמשים אזהרה או פשוט לחסום הודעות כאלו.
 
עם זאת, על אף מיטב המאמצים, לא נצליח לחסום לגמרי את ההודעות האלו. כך, ששיעור קטן מהן תמצאנה את דרכן לתיבת המייל או ההודעות של המשתמשים ועלינו להערך לכך. תמיד כדאי להשתמש בכמה שכבות הגנה, ובעידן, שבו פחתה יכולתו של המשתמש הממוצע להבדיל בין הודעה אמיתית למתחזה, השימוש בחומת אש ובאמצעים לזיהוי איומים בערוצי התקשורת השונים וסיכולם הופך לחיוני מאי פעם.
 
המשתמשים יצטרכו ללמוד לשנות גישה ובמקום לחפש שגיאות כתיב ודקדוק מחשידות, ידרשו לנסות לאמת את הבקשה לפני ביצוע פעולה כלשהי, שבה מעורב מידע רגיש. התבקשת לבצע פעולה כלשהי בחשבון הבנק? להזין סיסמה או לספק מידע רגיש? לפני ביצוע הפעולה מומלץ להתקשר לאדם או לגורם שפנה אליך ולוודא, שלא מדובר בהונאה.
 
ככל שהבינה המלאכותית תמשיך להשתפר, כך יהיה קשה יותר להבדיל בין הודעה אמיתית להודעה מתחזה. אנו צריכים לבנות מערכות שתהיינה גמישות ויעילות מספיק כדי לזהות ולחסום את ההודעות האלו, ובמקביל להעלות את המודעות בקרב המשתמשים וללמד אותם לנקוט פעולות נוספות לפני שהם מגיבים לבקשה למסירת מידע רגיש.
 
מאת: צ'סטר וישנייבסקי, ינואר 2023.
מנהל טכנולוגיות ראשי בתחום המחקר היישומי בסופוס (Sophos)

CYBER


 
 
עדכון 1.2.23: עדכון מחברת ESET: "אפליקציות מתחזות ל-ChatGPT נמצאות בחנויות האפליקציות הרשמיות ואוספות מידע על המשתמשים.
הפופולריות הגדולה סביב ChatGPT מגיעה גם לחנויות האפליקציות הרשמיות של App store ו-Google Play. כמו שאנחנו יודעים האקרים לעולם אינם נחים ותמיד מחפשים את הדרך הבאה להשיג את המידע שלנו.
כעת לפי חוקרים של top10vpn מתברר כי לחנויות האפליקציות הרשמיות הצליחו להיכנס לאחרונה אפליקציות שמתחזות לשירות החינמי (נכון לעכשיו) כאשר למעשה הן אוספות נתונים של המשתמשים ושולחות אותם לשרתים מרוחקים.
במכשירי אנדרואיד, לאחת האפליקציות שנותחו על ידי חוקרים יש יותר מ-100,000 הורדות, עוקבות ומשתפות נתוני מיקום עם אמזון וכו' ואפליקציות אחרות ביקשו הרשאות להקלטת אודיו, כך לפי hackread.
בחברת אבטחת המידע ESET מסבירים כי: ChatGPT התפוצץ בפופולריות והוא יכול להתמודד עם כמעט כל שאלה שנציג לו. עם זאת, מכיוון ששירות הבינה המלאכותית נגיש רק מדפדפן אינטרנט מבלי לספק אפליקציה נוחה לנייד, ישנם גורמים שכבר הסיפוק לנצל זאת ותכננו מספר אפליקציות שמשתמשות לרעה בטכנולוגיה כדי ליצור אפליקציות משלהם.
חלק מהאפליקציות מבקשות מהמשתמשים ליצור מנוי ואף עשויות לאסוף נתוני משתמשים ומכשירים. חשוב כי אנשים יהיו מודעים היכן וכיצד יישומים אוספים ומנתחים לעתים קרובות נתונים אישיים. כאשר המידע שלנו שווה המון ומעניין לא מעט גורמים, עלינו להזכיר למשתמשים כי חשוב שיגנו על המידע הרגיש שלהם."



 
 
Bookmark and Share