הבינה המלאכותית עושה בימים אלה עוד קפיצת מדרגה כפי שעדכנה OpenAI עם ChatGPT בגרסה חדשה (o4) וגוגל עם העדכון לג'מיני (1.5) שכולל את הטמעת הבינה המלאכותית במנוע החיפוש הפופולארי. בעידן של בינה מלאכותית, רשתות חברתיות ומנועי חיפוש מנוהלי אלגוריתמים, שמירה על מוניטין היא משימה מאתגרת. כל ארגון או חברה נמדדים בשאלה "האם הם בגוגל והיכן הם ממוקמים?", כך גם מידת הפופולאריות והחשיפה ברשתות החברתיות - כל אלה משפיעות ישירות על המיצוב שלנו. אחרי כמה משברים, חברת Gucci למשל, ניצלה את ה-SEO שלה לשיפור הנראות ברשתות, בין היתר באמצעות התאמת התוכן שלה למנועי החיפוש. אופטימיזציה טובה ויעילה למנועי חיפוש (SEO) יכולה להשפיע, אבל המוניטין העסקי והשם הטוב שלנו מושפע בראש ובראשונה מהתוכן שמופיע אודותינו.
בינה מלאכותית וניהול מוניטין
כפי שאוכיח בהמשך, הנטייה של מנועי בינה מלאכותית להמציא תשובות ו"למלא את החסר" עלולה להציף את הרשת במידע לא מדויק או לא נכון. כן, גם עלינו. מידע כזה, יכול להתפשט במהירות ברשת, ולפגוע קשות בתדמית של אדם, ארגון או חברה. התוצאות שמופיעות במנוע חיפוש הן לעתים קרובות הגורם הראשון שממנו אנשים שואבים מידע. הרשתות החברתיות הן פלטפורמה רבת עוצמה להפצת מידע, אך גם כר פורה לשמועות ולתגובות שליליות. מעל כל אלה, טכנולוגיות דיפ-פייק, עלולות להוליך שולל אפילו עיתונאים מנוסים ולאלץ אישים פוליטיים, ארגונים וחברות להתמודד עם סרטון שבו הם אומרים כביכול בצורה הכי אוטנטית שאפשר, משהו שמעולם לא אמרו.
כשדיפ-פייק משתלט על השידור: רשת החדשות נאלצה להכחיש דיווח מצולם על הנשיא
רשימת הפוליטיקאים והידוענים שנפלו קורבן לשימוש בדיפ פייק בשנים האחרונות הולכת ומתרחבת, אבל מקרה אחד לפני כמה חודשים מוכיח את הסכנה הכפולה כשזה מצליח לזלוג לשידורי חדשות. רשת השידור הצרפתית france24 נאלצה לפרסם הכחשה בשידור, לסרטון של מגיש חדשות שלה שצולם כביכול באולפן מדווח שנשיא צרפת עמנואל מקרון ביטל את הנסיעה לאוקראינה מחשש להתנקשות. הרשת דיווחה ששידור כזה מעולם לא נעשה, לא רק הכחישה את תוכנו. לפני מקרון, היתה זו ראש ממשלת בריטניה תרזה מיי שתועדה כביכול בנאום שמרני קיצוני שעורר סערה, עד שהתברר שהוא פייק ואפילו מרק צוקרברג מייסד מטא, תועד כביכול בסרטון כזה שבא לבחון את התמודדות פייסבוק עם דיפ-פייק תוך השמעת אמירות נוקבות על מדיניות הפרטיות שלה.
יועצי תקשורת חייבים להיות ערניים בכל עת!
יועצי תקשורת חייבים להיות ערניים לסכנות אלו ולפתח אסטרטגיות להתמודדות יעילה ומהירה. הם צריכים לעקוב אחר מגמות וטכנולוגיות חדשות, לזהות תוכן מזויף ולהפריך מידע כוזב במהירות. מעבר לדיפ-פייק, ה-AI (בינה מלאכותית) משנה את פני התקשורת בדרכים נוספות - כלי AI מסייעים ביצירת תוכן רלוונטי ומותאם אישית, מה שמאפשר לארגונים לפנות לקהלים ספציפיים ביעילות רבה יותר. עם זאת, שימוש לא נכון ב-AI עלול לפגוע באמינות ולהרוס את האמון שהציבור רוחש לארגון.
כך למשל, שאלתי את מנוע הבינה המלאכותית "קלוד", מיהו שלמה קרעי. זו התשובה שקיבלתי: "שלמה קרעי הוא סופר, פובליציסט ומשורר ישראלי-ערבי יליד העיר שפרעם בגליל. הוא נחשב לאחד הסופרים והמשוררים החשובים ביותר בספרות הערבית-היהודית בישראל".
האמת ע"פ ג'מיני של גוגל: "אלון מאסק לא רכש את טוויטר, זה היה פייק"
ביקשתי מג'מיני דוגמאות לאנשים שנפלו קורבן לסרטוני דיפ-פייק והוא ציין בין היתר: "אלון מאסק: סרטון דיפ פייק שבו נראה מאסק מודיע על רכישת חברת טוויטר הופץ ברשתות החברתיות. הסרטון גרם לעלייה חדה במניה של טוויטר, אך מאוחר יותר התברר שמדובר בדיפ פייק". אני השבתי: "אלון מאסק אכן רכש את טוויטר", ג'מיני ניסה להסתחבק בתגובה: "אכן, צודק אתה! אלון מאסק רכש את טוויטר בסוף אוקטובר 2023 בעסקה בשווי 44 מיליארד דולר". שאלתי אותו מדוע ציין שזה היה פייק, והוא השיב בכנות הפעם: מתנצל על הטעות בתגובה הקודמת שלי. ציינתי בטעות שאלון מאסק רכש את טוויטר באמצעות דיפ פייק. כפי שהבהרת בצדק, רכישת טוויטר על ידי מאסק התרחשה באוקטובר 2023 והיא אירוע אמיתי. אני עדיין בפיתוח, ולומד כל הזמן דברים חדשים. ייתכן שאעשה טעויות מדי פעם, ואני מעריך את תיקוניך ועזרתך בשיפור יכולותיי".
ההסבר של ChatGPT: למה בינה מלאכותית משקרת לפעמים
ביקשתי מ-ChatGPT למנות את הסיבות להמצאת דוגמאות על ידי מודלים של בינה מלאכותית, והוא הודה: מודלים של בינה מלאכותית, כמו אלו המבוססים על למידת מכונה ולמידה עמוקה, מתוכננים לייצר תוכן באופן אוטומטי בהתבסס על מידע שקיים בבסיסי הנתונים שלהם. להלן מספר סיבות עיקריות לכך שמודלים אלו נוטים להמציא דוגמאות שלא היו ולא נבראו: אימון על נתונים חלקיים או שגויים, יצירתיות ולמידה הסתברותית (המודלים משתמשים בשיטות הסתברותיות כדי לייצר תוכן חדש), היעדר בקרה בזמן אמת - המודלים אינם מבצעים בדיקת עובדות או אימות בזמן אמת. הם אינם מצוידים במנגנונים להבטיח את נכונות המידע שהם מספקים.
כך תזהו אם מנסים למכור לכם פייק:
· בדקו את המקור: ודאו שהמידע מגיע ממקור אמין ומוכר.
· חפשו מידע נוסף: ודאו שהמידע תואם מידע שמצאתם במקורות אחרים.
· היו ביקורתיים: אל תאמינו לכל מה שאתם קוראים.
· שימו לב לשפה: שימו לב אם השפה המשמשת במאמר נראית רגשית או מוטה.
· בדקו את התאריך: ודאו שהמידע עדכני.
ניהול משברים ובינה מלאכותית
אין ספק, רשתות חברתיות, בינה מלאכותית ומנועי חיפוש אלגוריתמיים מכתיבים את סדר היום. דונלד טראמפ, הצליח לנצל את הרשתות החברתיות לקידום תדמיתו, אך גם נפגע מהן. ציוצים בעייתיים והתנהגות שנויה במחלוקת גרמו לא פעם לשערוריות שדרשו ניהול משברים מדויק ומקצועי.
אז מה קורה כשהבינה המלאכותית טועה ומטעה או כשיש מי שיש לו עניין מכוון לקדם פייק ניוז ברשתות? – כך תשמרו על המוניטין בעידן של בינה מלאכותית: צריך לזכור שמנועי ה-AI נשענים על מידע קיים שזמין אודותיכם ברשת. נסו לחפש את שמכם ואת שם העסק שלכם בגוגל וראו מה עולה. אם התוצאות מכילות שמועות, ביקורות שליליות או אמירות מעוררות מחלוקת, סביר להניח שהן יופיעו גם בתשובות של מנועי הבינה המלאכותית.
ייעוץ תקשורת וניהול משברים הם כלים חיוניים לשמירה על מוניטין. מומחים בתחומים אלו יכולים להגיב במהירות וביעילות למשברים, ולשמור על תדמית חיובית לאורך זמן. כי בואו נודה בזה, המוניטין של אישים וחברות יכול להתרסק היום, הרבה יותר מהר מהשקת עדכון תוכנה לא מוצלח.
Comments