יונית - בוט עלול להחליף אותך

התמונה של בן לייבמן

אנשי תקשורת, אתם מוכנים לזה? בעוד כמה שנים תוחלפו על ידי יישויות וירטואליות.
סתם, אני משתשעשע. אבל לפחות אותן יישויות יגרמו לכן להשתפר. 

עכשיו ההסבר. קראו בקול רם את שני המשפטים:
1. עשרות הרוגים, מאות פצועים ונזק במימדים בלתי נתפשים בגלל רעידת האדמה הקטלנית ביותר בתולדות המדינה.
2. הרוגים, פצועים ונזק לרכוש עקב רעידת אדמה.

מה ההבדל בין שני המשפטים?
את המשפט הראשון יאמר קריין* חדשות שיציג את כותרות המהדורה בצורה אנושית, אמפתית ועם רגש מסוים, למרות שעליו בדרך כלל להיות מנותק מרגש. זה מה שהופך אותו לאנושי וזה מה שגורם לבני אדם, או לפחות לי עצמי, להטות אוזן למהדורת חדשות גם אם לא אוהב את מה שאשמע בה. האנושיות והשבר בקול מושכים. בני אדם אוהבים טרגדיות, וכשהן מקוריינות בצורה אמינה - אנחנו נמשכים אליהן.

לעומת זאת, את המשפט השני, ככל הנראה תקריא אינטילגנציה מלאכותית, בקול אנושי-מלאכותי, שתדווח לנו, על מה שהתרחש בעולמנו באותו היום. הדיווח הזה יגיע אחרי ניתוח המידע שרץ ברשת, ניתוח שיימשך אולי כמה עשיריות השנייה, ואז אותה אינטיגלנציה תזקק את זה לכדי דיווח "חדשותי".

אז למי נרצה להקשיב? לשדרן שהקול שלו נשבר ונחנק מדמעות, או מכונה עם קול מכני קר?

כישלון במבחן האמפתיה
אין ספק כי אינטיליגנציה מלאכותית הגיעה לרמה שהיא יכולה בקלות לעבור מבחן טיורינג ואפילו לגרום לבוחן להטיל ספק אם הנבחן האנושי הוא לא מכונה בעצמו. אולם, האם היא תוכל בעתיד ללמוד גם מהם רגשות אנושיים? אם בעתיד ימציאו מבחן אמפתיה שיבחן אם ניתן לעורר אמפתיה בקרב אינטיליגנציה מלאכותית, האם היא תצליח בו? כן, מדובר כרגע ברפרנס גמור לסרט בלייד ראנר משנת 1982, שם מבצעים לרפליקנט (סוג של אנדרואיד) מבחן אמפתיה - הוא מתרגז ומחסל את הבוחן שלו. למה הוא התרגז? מנקודת המבט שלי: כי הוא לא הבין מה השאלות שהוא נשאל אמורות להיות, ואם הייתה לו את יכולת האמפתיה, בתור אינטיליגנציה מלאכותית-עצמאית, אז ייתכן ולא היה מתרגז.

 

יכולת למידה היא לא בהכרח אינטסינטקט טבעי
אין ספק כי מכונות בעלות אינטילגנציה מלאכותית למדו, לומדות ויכולות ללמוד דברים שונים, כמו למשל דיפמיינד של גוגל שלימד את עצמו ללכת, אך זה לא אומר שניתן ללמוד רגשות או אינסטינקטים טבעיים שאנו נולדים איתם. למשל, האם אפשר ללמד מכונה מהי תחושת בטן? מהם פרפרים בבטן? כיצד ה"גוש בגרון" שתקוע לאנשים מרגיש? לא, כי אלה דברים שכל אחד מאתנו חווה בצורה סובקייטיבית. אולי אפשר ללמד מכונה להטיס בצורה אוטומטית מעבורת חלל לירח, אך מכונה ככל הנראה לעולם לא תצליח לרכוש את הדחף, הרצון והיכולת להיות מאחורי תחקיר עיתונאי ארוך טווח כפי שעושים עיתונאים שונים ומשונים. מכונה לעולם לא תצליח כמו עיתונאי שפתאום מחליט אחרי ששמע שמועה, להתחיל תחקיר עומק שיכול להימשך שנים. מכונה לעולם לא תבין את האימפולסיביות האנושית שהיא זו שמקיימת את התקשורת כספק, ואותנו כצרכנים. ובואו לא נשכח את הדבר שהכי מאפיין אותנו בתור בני אדם: "טעות אנושית". שום מכונה לא תלמד איך לטעות בצורה כל כך אנושית.

אז האם האינטיליגנציה המלאכותית תחליף את שוק התקשורת?
לא. היא תשפר אותו. היא תגרום לצרכני התקשורת לדרוש מהעיתונאים שלהם יותר, כפי שקורה כבר היום. בני אדם, מחפשים תמיד את הגורם האנושי בכל דבר בחיים, וכמו בכל דבר בחיים - כך הם לא יוותרו על הגורם האנושי בתקשורת, גם אם זו תקשורת מגוייסת. לכן, שום מכונה, יישות וירטואלית או אינטיליגנציה מלאכותית יכולות להחליף את שדרן הרדיו שיושב ב-2 לפנות בוקר ומקריא דיווחים למיקרופון בקול מנומנם.

זוג הערות לסיום
1. ישנם ספרים, סרטים, מאמרים ורעיונות שעוסקים ברעיון של דואליזם מחשבתי-מכונתי (או במילים אחרות: Ghost In The Machine). העדפתי שלא להיכנס לנושא זה משום שמדובר בנושא עמוק, אך אגע בכותרת שלו: ככל הנראה, בכל מחשבה או תודעה שתושתל בתוך דבר מלאכותי, יישאר משהו אנושי. האם הוא יהיה אנושי או יתמסר למכונה? לא יודע, וגם לעולם לא אדע.

2. צאו מזה. שום תוכנת מחשב לא תשתלט על העולם האנושי

*המאמר נכתב בלשון זכר מטעמי נוחות, אבל מתייחס לשני המינים.

בן לייבמן הוא יועץ תקשורת דיגיטלית בבן חורין אלכסנדרוביץ' וכותב בבלוג אינסרט