All Episodes

February 23, 2025 45 mins

בפרק זה התעמקנו בשאלות קריטיות סביב בינה מלאכותית ואחריות – Responsible AI. בשיחה פתוחה עם אורח מיוחד מהאקדמיה, פרופ׳ אבי (אביגדור) גל מהטכניון, דנים בהיבטים משפטיים, אתיים וטכנולוגיים של השימוש ב-AI. בין השאלות שעל הפרק: מי נושא באחריות כאשר מערכות בינה מלאכותית פוגעות בזכויות הפרט או גורמות להפליות? כיצד ניתן לשלב תהליכי פיתוח, רגולציה ואחריות חברתית תוך שמירה על חדשנות? בנוסף, מוצגות דוגמאות מעשיות – מתהליכי למידת מכונה בפרויקטים אקדמיים ועד להתנסויות בתחום הרפואה – המדגישות את הצורך בהסברתיות (explainability) ובשמירה על פרטיות, תוך כדי דיון בהשפעת השימוש ב-LLMs (כמו ChatGPT) על היצירתיות והאוטונומיה האנושית.

זהו פרק עשיר ברעיונות ובדיונים מעמיקים שמביא זוויות חדשות לשילוב טכנולוגיה, אתיקה ומשפט, ומציב אתגרי העתיד של עולם הבינה המלאכותית והאחריות החברתית

 

Mark as Played
Transcript

Episode Transcript

Available transcripts are automatically generated. Complete accuracy is not guaranteed.
(00:00):
ברוכים הבאים לפודקאסט הטכנולוגיה מדברים פתוח.
אני ג'וש סלומון.
ואני אילן פינטו.
יחד אנחנו מדברים על כל מה שחדש בעולם הפיתוח.
הבינה מלאכותית והקלאוד מקשור ישירות,
או על הדרך לפוד פתוח.
וככה זה אחרי שעובדים שנים באופן סורס חייבים להעביר את זה הלאה.
בין לבין נזכיר גם עוד כמה באז וורדס כדי שנוכל לסגור פינה ולדסקס על כל מה שחשוב באמת.

(00:24):
תשימו זניות, תדבירו את הווליום ותעשו מקום למקצועניות והמקצוענים שבאו לדבר איתנו פתוח ולעניין.
מדברים פתוח?
מתחילים!
בוקר טוב, ג'וש, מה נשמע?
בוקר טוב, אילן.
מה, עדיין חולה?
אתה רואה מה זה?
מהפרק הקודם ועד עכשיו עוד לא החלמתי.
בכמה כוסות תזה נמדד?

(00:46):
יש שני דברים מיוחדים בפרק הזה.
מה מיוחד?
מה מיוחד, פעם ראשונה שאנחנו הבאנו מרואיין מהאקדמיה,
נכון,
עוד לא היה לנו,
ופעם ראשונה שאני מביא חבר טוב להתראיין בפודקאסט,
מי שאמר שאין אצלנו נפותיזם.
כן, לא יש, רק ועד עכשיו זה היה מהצד שלי,

(01:06):
עכשיו גם קצת מהצד שלך.
מי שאמר שאין?
טעה.
גילוי נאות, מה שנקרא.
כן, גילוי נאות, חבר טוב.
מי האורח שלנו?
אבי.
אתה מוזמן להציג את עצמך.
בוקר טוב.
בוקר טוב לשניכם, תודה רבה שהזמנתם אותי.
שמי אבי, אביגדור גל, אני חבר סגל בטכניון,
בפקולטה למדעי הנתונים וההחלטות.

(01:28):
זו פקולטה שעיקר העניין שלה במחקר והוראה זה בתחום של דאטה,
כיצד מנתחים דאטה.
הפקולטה הזאת קיימת כבר עשרות שנים,
אם כי בשם הזה היא יודועה רק בשנה האחרונה.
הסיפור שלנו הוא סיפור של סטארטאפ באקדמיה,

(01:50):
של בניית תוכנית לימודים מאפס ומסביבה הוקמה
פקולטה עם עניין בנושא הכי חם היום בשוק,
דאטה.
מגניב.
וזמנו אותך, האמת, בשביל לדבר על ריספונסיבל איי.איי.
אז איך מגיעים מתחום של דאטה לריספונסיבל איי.איי?
זה כאילו נשמע לא קשור, נכון?

(02:11):
קשור ולא קשור, כן.
המחקר שלי הוא באמת לא בתחום של ריספונסביל איי.איי.
המחקר שלי הוא בתחום של דאטה מנג'מנט, דאטה אינטגריישן.
בעשור האחרון הייתי מעורב מאוד בהקמה של תוכנית
הלימודים החדשה בהנדסת נתונים בטכניון,
והיה לנו ברור לאורך כל הדרך שבתוכנית הזאת,

(02:34):
אם אנחנו מכשירים את הסטודנטים להיות מפלצות דאטה,
כדאי שהם גם יפתחו תל אצפון וביחד עם שותפה יקרה
מאוניברסיטת חיפה שעברה בינתיים לאוניברסיטת תל אביב,
אנחנו התחלנו לעבוד על שיתופי פעולה בין התחום של אנשי
דאטה סיינס לתחום של משפטים בתחום האקדמי,

(02:57):
וככה בעצם הגעתי לריספונסיבל איי.
יפה. אז אולי נתחיל מהשאלה הכי זה שאני וג'וש' ניסינו לדון בלפני איילו פרקים איפשהו שם בעונה השנייה.
ראשונה אפילו להיפריד. ראשונה, זה הפרק קצר, שניסינו לדבר על ריספונסיבל איי.
עוד אדמנו עוד על אתיקה. אתיקה, נכון. קראנו את אתיקה.

(03:18):
אתיקה, ג'וש' אז בזמנו היה באיזשהו קורס קצר וסיפר לנו על מה שיש שם.
אז תסביר לנו מה זה ריספונסיבל איי. למה מחשבים צריכים להיות,
או למה איי איי צריך להיות ריספונסיבל? ממי יודע איך אנחנו מבקשים לתחם ציפור?
ומה הקשר בין איי איי למשפטים?
שאלה מצוינת.
באמת, המילה אתיקה עלתה הרבה פעמים.

(03:40):
יש משהו קצת מטעה במילה אתיקה ולכן לחשוב על אחריות בבינה מלאכותית זה דרך הרבה יותר בריאה לחשוב על זה.
הרעיון הוא שאנחנו מנסים ליישר קו בעצם בין החובות שלנו לחברה שבה אנחנו חיים,
בין הכלים שאותם אנחנו מפתחים ושהחברה,

(04:00):
החברה במובן של סוסייטי בעצם משתמשת בהם.
אחת הטענות העיקריות הוא שלהיות אחראי אי אפשר רק לאחר מעשה.
כלומר, פיתחת מערכת תוכנה, שמת אותה בשוק, נגרם נזק,
אז אתה מקבל אחריות,
אלא האחריות צריכה להתבסס על זה שכבר משלב התכנון הראשוני,

(04:21):
אתה מתחיל להתמודד עם השלכות אפשריות של המערכת שאותה אתה בונה על החברה שלמעשה,
הולכת להשתמש בה.
תן לנו דוגמאות.
כן, כן, זה הכל יפה, אבל זה עדיין ברמה של מילים גדולות,
ואז צריך להבין בעצם מה,

(04:43):
מה בעצם אנחנו מצפים, מה זה בעצם אחריות.
אז אפשר לחשוב על כמה תחומים עיקריים שבהם יש אחריות,
אני אנסה לתת דוגמאות לכל אחד מהתחומים האלה.
אז התחום הראשון,
וזה גם מקשר לשאלה של חג'וז' לגבי איך זה קשור למשפטים,
נופל תחת התחום של לייביליטי.

(05:05):
ובשביל לקחת דוגמה, בואו נחשוב על מכוניות אוטונומיות,
מכונית אוטונומית שנוסעת בכביש וננניח מעורבת בתאונה,
אני שואל את השאלה מי בעצם האחראי.
עד לא שנים רבות אחורה, בעצם אנחנו...
היה ברור מי אחראי.
כלומר,
או שהנהג אחראי או שאם זו תקלה ברכב אז יצרה רכב אחראי,

(05:27):
ופה פתאום הכניסה של הבינה המלאכותית והעובדה שבעצם הבינה המלאכותית היא זאת שנוהגת,
ברכב, שואל האם הבינה המלאכותית יש לה אחריות משלה.
אז זה נושא אחד שעובדים עליו בתוך הסיפור של ריספונטים.
סליחה שאני מתפרץ.
למה זה בעצם הופך להיות שאלה?
הרי, היה לנו תוכנות בתוך הרכב, היו קיימות,
הרכבים היו נשלטים בהלפי פרוססורים,

(05:50):
לא יודע, אצלי בקאי הפיקנטו הפשוטה שלי,
יש איזה מנגנון כזה שאם אני סוטה מהכביש אז הוא מיישר אותי ויכול גם להשתגע,
אני מקווה מאוד שלא חס וחלילה.
אבל ברור שאם תהיה בעיה במנגנון הזה,
למרות שזה כנראה רכיב תוכנתי,
יצרה הרכב אי אשם.
אז למה בזה שעכשיו הכנסנו AI לתוך המערכת, נוצרת השאלה?

(06:13):
אז יש פה שני דברים,
קודם כל יש פה באמת שינוי מהותי בתהליך,
כי רכבים אוטונומיים זה רכב שנוהג את עצמו.
אז ברור שאם מכונת הכביסה שלכם תתחיל לכבס בעצמה,
גם שם אנחנו כנראה נשאל שאלות דומות,
אבל פה בעצם ברגע שהאחריות של הנהג ירדה,

(06:33):
השאלה היא מי לוקח?
הוא טייקס אובר בנושא הזה?
אבל מעבר לזה, יש פה גם עניין תפיסתי,
כאשר בעצם אנחנו כאנשים באים ומסתכלים על הטכנולוגיה ואנחנו רואים שינוי מהותי בהתנהגות,
אנחנו מתחילים לחשוב על הטכנולוגיה בתור בן אדם,

(06:56):
בתור נהג.
ובמקום הזה בעצם קיים אחד הכשלים העיקריים,
החשיבה על הטכנולוגיה בתור בן אדם,
והאמת שהשם בינה מלאכותית לא עוזרת לנו בעניין הזה,
אנחנו חושבים על בינה מלאכותית כהמשך או התנגדות או משהו שעובד כנגד בינה אנושית.

(07:17):
ושם בעצם הגבולות מתחילים להתשתש.
אני אמדתי.
אוקיי.
אז זה בעצם אזור אחד של איירספונסביליטי?
אני מניח ש...
-של ליב-כן.
-ליביליטי?
-ליביליטי?
עכשיו, אנחנו יכולים לחשוב על עוד כיוונים,
למשל,
נושא של אפליה הוא נושא שהוא מאוד חם בדיונים שקשורים לבינה מלאכותית.

(07:38):
כדוגמה,
היום יש הרבה חברות שמשתמשות בכלים
של בינה מלאכותית על מנת למיין קורות חיים של מועמדים כדי להקל על העבודה בהמשך.
בעבר זאת הייתה עבודה שנעשתה על ידי אנשים.
לא בהכרח נעשתה טוב יותר,
אבל ברגע ש-AI מחליט מי נכנס ומי יוצא,

(08:01):
יש לנו השפעה גדולה על החיים שלנו.
וגם כאן נשאלת השאלה מי בעצם לוקח אחריות על זה,
ובפרט מי לוקח אחריות במצב שיש לנו אפליה.
למשל, אנשים שיש להם שם,
שמות מסוימים,
המערכת מחליטה שהם לא עוברים הלאה,
או אבחנה בין גברים ונשים.

(08:23):
ובנושא הזה עולה הטיעון שהדאטה הוא דאטה ולכן הוא משקף את האופן שבו אנחנו מתייחסים
לעולם, ולכן אם העולם הוא בעצמו biased,
מותר למערכת הבינה המלאכותית להיות biased.
מצד שני, יש פה הזדמנות לתיקונים,
שהם לא היו לנו בעבר כי המכונה,

(08:46):
בניגוד לאנשים שיושבים שם מול קורות החיים,
יש לנו דרך בעצם לשלוט עליה.
זאת נקודה מעניינת, היה לנו בפודקאסט הקודם,
על זה, על מערכת שלנו בארצות הברית, בית המשפט, לקביעת
עונשים לאנשים שהורשעו,
שהצטבר שהמערכת הזאת הייתה biased נגד שחורים,

(09:07):
והסיבה העיקרית היא כי זה הבייס שהיה לשופטים,
הזינו אותה בדאטה מוטב.
אז זו שאלה מעניינת, האם
הבייס הזה הוא בייס שנובע רק אך ורק מהאלמנט כזה מצבע אור,
או האם הבייס התחיל מסיבות אחרות וכרגע אתה עושה תיקון.

(09:30):
הפוך שהוא לא בהכרח.
לא, וגם השאלה אם זה לגיטימי לשנות את זה במערכת ה-AI,
כשבעצם החברה היא הבעייתית פה.
זאת אומרת, החברה כבר יצרה את הבעיה,
אולי ה-AI ינציח את זה, אני לא אומר שזה בסדר או לא,
אבל אתה בעצם הופך פה איזשהו משהו, אולי במקום הלא נכון.
אז אלה שאלות,

(09:51):
באמת אלה שאלות מצוינות שאנשים שואלים את עצמם.
דבר אחד שאנחנו צריכים לשים על השולחן,
זה שברגע שאני מכניס את החברה,
את ה-societal פנימה,
אני צריך גם לשאול את עצמי איזה society אנחנו מדברים.
זאת אומרת,
פתאום אנחנו מקבלים דבר שבעבר היה לנו,

(10:11):
היה הרבה יותר קל להתמדד איתו בטכנולוגיה,
ואין הבדל אם אני מיישם את ה-AI שלי באירופה,
בארצות הברית, או בסין, או בברזיל.
והיום אנחנו רואים שברגע של ה-societal,
לחברה,
יש כללי התנהגות שונים,
פתאום גם הנושאים האלה של הרספונסביליטי מקבלים מקום אחר.

(10:35):
כלומר, אם אני בחברה מאמין שאין מקום להפליה,
ויכול להיות שעד היום הייתה אפליה,
נניח,
בין שחורים ללבנים,
וקל לנו יותר להתייחס להפליות מעבר לים מאשר להפליות אצלנו,
אז בסופו של דבר אנחנו יכולים להגיד שעל
פי החוק אנחנו רוצים לייצר מערכת שאינה מפלה.

(10:56):
ולכן,
מאחר שיש לנו גם שליטה על האופן שבו בינה מלאכותית עובדת,
אנחנו יכולים לדרוש את זה ממי שמספק עבורנו את התוכנה.
דוגמה נוספת שהיא אפילו עוד יותר חזקה בנושא של הבדלים חברתיים,
זה הנושא של פרטיות.
הנושא של פרטיות הוא
יכול, הוא בעצם בא להסתכל על איזה שימוש עושים בדאטה שיודעים עליי.

(11:22):
זאת אומרת, האם אני משתף את התוצאות של בדיקות רפואיות וגנטיות שלי,
אולי על מנת אפילו לשפר את המצב הבריאותי שלי?
אני שואלת השאלה, מי עוד חולק את הדאטה הזה?
האם חברות ביטוח יכולות לחלוק את הדאטה הזה?
האם הן יכולות,
כתוצאה מזה,

(11:42):
לשנות לי בעצם את הפרמיה על הביטוח הרפואי?
אנחנו יודעים שזה כבר קיים היום, למשל, בתחום הרכב.
אנחנו מסתכלים על הרכב, אם הרכב גניב יותר או גניב פחות,
אנחנו משנים את הפרמיה.
אם הנהג הוא נהג חדש או נהג מנוסה, אנחנו משנים את הפרמיה.
למה שלא נקבע שמישהו שהגנים שלו מעידים על

(12:05):
כך שיש לו פוטנציאל יותר חמור לחלות במחלות קשות,
שבסופו של דבר יעלו הרבה כסף למערכת?
למה שלא לאפשר לחברת הביטוח בעצם לדרוש יותר,
מבחינת הפרמיה,
מאותם אנשים?
זה נורא תלוי באיך החברה רואה את התהליך הזה.

(12:25):
זה בצעד המימושי, אבל יש גם שאלות בצעד השימושי.
זאת אומרת, אם אני עכשיו רוצה לאמן את המידע שלי ואני חברת ביטוח,
לפני בכלל שאני בכלל דורש איזשהו פרמיה או משהו,
אני רק רוצה ללמוד מהדאטה בייס שיש לי,
האם בכלל מותר לי ללמוד מהדאטה שיש לי?
הרי...
מהדאטה רפואית?
-מהדאטה רפואית?
-מהאיזה דאטה מותר לי ללמוד?
למה אני אזכר בשאלה הזאת?

(12:47):
כי יש לנו איזה חבר שעבד פה ועבר לקנדה,
הוא הגיע מקנדה וחזר מקנדה,
לא משנה,
עשה כמה סיבובים,
כמה טורים פה בארץ ובקנדה,
ואחד מהדברים שהוא סיפר לי שהפתיע אותי מאוד,
הוא אמר לי כשאתה הולך לקנדה,
לרופא,
ואתה אומר לו אני רוצה לעבור לרופא אחר,
אתה צריך לקנות ממנו את המידע הרפואי כי הוא שייך לו.

(13:08):
עכשיו פה בארץ אתה עובר בין הקופות,
זה טלפון אחד אס אמס,
זה עובר בין הקופות אוטומטית כי המידע לא שייך לקופת חולים,
הוא שייך לך.
אז גם פה החברת ביטוח מחזיקה איזשהו מידע עליי,
היא יכולה לאמן את המידע,
לא יודע,
זו שאלה,
זאת אומרת,
זו שאלה אם בכלל מותר להם או לא.
-טוב, הכל...
כשאנחנו עובדים עם הסטודנטים על נושא של דאטה,

(13:31):
אנחנו מסבירים שדאטה עובר איזשהו תהליך במחזור חיים.
אני גולש פה לנושא טיפה אחר ותכף נחזור ל...
יש עוד כמה אלמנטים של Responsible AI,
אבל צריך להבין שדאטה צריך לאסוף אותו,
צריך לשמור אותו.
צריך לנתח אותו ואחר כך צריך להציג אותו לגורמים הרלוונטיים.

(13:51):
אז אם אנחנו חושבים על זה כעל מחזור חיים,
יש כל מיני שאלות שאני יכול לשאול על כל אחד מההיבטים האלה.
למשל, איסוף הדאטה.
לפעמים איסוף הדאטה נעשה על פי חוק.
יש מצלמות מהירות בכביש.
הדאטה עליי נאסף אם אני רוצה או לא רוצה.
יש מקומות שבהם הדאטה הרפואי שלי,
כל בדיקה רפואית,

(14:12):
נניח למחלות זיהומיות.
הוא דאטה שצריך ללכת למרכז בקרה על מחלות זיהומיות לטובת החברה,
איזה hole.
השאלה היא באמת, יש שאלות תיאורטיות על מי הבעלים של הדאטה.
מסתבר, מה שאתה אומר, אתה נותן דוגמה של רופא כבעלים של הדאטה,
אבל גם לנו קשה לומר שאנחנו הבעלים של כל דאטה שנאסף עלינו.

(14:38):
הדאטה נאסף.
השאלה היא, עד כמה לנו יהיה סמכות להגיד מה מותר ומה אסור לעשות עם הדאטה הזה?
האם מותר לאסוף או לא?
האם מותר לשמור או לא?
האם מותר להשתמש בו לניתוח הנתונים או לא?
ולמי מותר להציג אותו?
אבל זה כאילו באיזשהו מקום ה-GDPR בא בדיוק לענות לשאלות האלה, נכון?

(14:59):
אז עכשיו בעולמות ה-AI, אם אני מבין נכון, זה מתעצם עוד יותר?
אז ה-GDPR באמת בא להתמודד עם בעיית הפרטיות בלבד.
מתוך כל הבעיות שאנחנו מונים פה ב-Responsible AI,
הוא בא להתמודד עם בעיית הפרטיות.
האיחוד האירופי עכשיו יצא עם מה שנקרא AI-Act,
שבעצם בא להתייחס לצד של האפליקציות.

(15:23):
להגיד איזה אפליקציות מותר לנו להשתמש בהם בבינה מלאכותית.
קחו לדוגמה את נושא האפליה שדיברנו עליו קודם.
האם חברה, ותחת איזה תנאים, מותר לה בעצם להשתמש בבינה
מלאכותית על מנת לסרוק קורות חיים ולהחליט מי נכנס ומי יוצא?
אז מדינת ניו יורק למעשה יצרה חוק כזה עוד לפני,

(15:47):
ועל פי החוק הזה,
למשל,
כאשר אתה משתמש בבינה מלאכותית על מנת לסוף קורות חיים,
אתה צריך ליידע את האנשים.
כלומר, בן אדם יכול לבחור אם להתראיין אצלך או לא,
על סמך זה שאתה אומר לו האם הבינה המלאכותית סורקת את הקורות חיים שלך לפני או לא.
דבר נוסף בקצה השני של הסכלה, אתה יכול...

(16:09):
אתה צריך שיהיה לך זכות לאוטונומיה.
זאת אומרת,
אתה יכול תמיד לבקש התערבות אנושית אם אתה חושב שהבינה המלאכותית עשתה משהו שגוי.
במובן הזה אנשים נחשבים כמקבלי החלטות לאחר הבינה המלאכותית.
אז כל אלה זה כבר כלים שאנחנו יכולים להשתמש בהם על מנת שנשתמש ב-AI בצורה אחראית.

(16:30):
אלה בעצם הכלים.
אבל לפני כן,
יש עוד שני דברים שאני רוצה להגיד לכל מה שקשור לאחריות בנתונים.
דבר נוסף שמאוד קיים היום בתחום זה הנושא של פייק ניוז.
הבינה המלאכותית התקדמה מאוד בשנים האחרונות.
הנושא של ה-LLMים, ה-Chat GPT והחברים יודעים לדבר איתנו בטקסט,

(16:54):
יודעים לייצר תמונות, יודעים לייצר מה שנקרא Deepfake, שזה
סרטונים,
ואם אתם שואלים אותי,
מכל הדברים שקשורים ל-Responsible AI,
זאת הסכנה הכי גדולה שעומדת בפנינו.
כי אנחנו מאבדים את כל היכולת שלנו להשתמש בחושים שלנו,
חוש הראייה, חוש השמיעה.
היכולת שלנו להבחין בין אינטליגנציה ללא אינטליגנציה בקריאה,

(17:16):
כל הסימנים שהיו קיימים בעבר בעצם כרגע כבר לא קיימים עבורנו,
מה שאומר שנורא קל לקחת אוכלוסיות,
לטרגט אותן על ידי מערכות שיודעות מה ה-Affinity שלך,
ולשים לך את הסיפורים שמעניינים אותך.
למשל, אתה יכול במערכת בחירות לנסות ולטעון,

(17:38):
מועמדת לנשיאות היא בעצם מנהלת רשת פדופיליה מתוך פיצריה.
ויש אנשים שיצחקו על זה ואותם אנשים לא צריכים לטרגט אותם,
אבל יש אנשים שמקבלים את זה כאמת מוחלטת.
וגם אפשר לבנות בעצם עולם שלם די בקלות שממש מייצר...
זאת אומרת,
בן אדם מסוים באמת יחשוב שזאת המציאות כי...

(17:58):
כי באמצעות כל מיני מערכות AI-AI כאלה ואחרות ייצרו לו בשילוב עם רשתות חברתיות והכל,
ידחפו לו את זה.
יותר גרוע.
אתה מטרגט את זה,
אפילו אם זה מעט מאוד אנשים יאמינו בזה.
כן.
אחר כך עוד מעט אנשים שיאמינו בפייק אחר ושם יטרגטו אותם עם פייק אחר.
מה שנקרא מבצע תודעה.
כן.
זה ככה אפשר לעשות שיימינג,

(18:20):
שיימינג לזה כשהוא מתורגט שכל אחד יקלע במקום שפוגע לו ובעצם משהו שאם הוא היה נעשה,
אם הוא לא מתורגט,
הוא היה מתפוצץ מיד,
מצליח לקבל אפקט כי כל אחד,
נותנים לו את מה שהוא רוצה להאמין בו,
עם הוכחות במלכאות כמובן של סרטים ו...

(18:42):
יש את הדוגמה של טיילור סוויפט שיצא לפני איזה...
2-3, משהו כזה,
שבזמן שהיה את השריפות ב-LA,
אז עשו איזה דיפ פייק איכותי מאוד, לפחות בהתחלה,
כן?
שהסתובב בעולם הערבי חזק,
שבעצם היא אומרת שהסיבה שהתחילו השריפות ב-LA זה בגלל

(19:02):
שארה"ב תומכת בישראל במלחמה בעזה.
עכשיו,
אם אתה שומע את זה בפעם הראשונה,
קודם כול זה נראה מאוד אמיתי,
לקחו איזשהו רעיון שלה לג'ימי פלון משנה לפני זה או משהו כזה,
כמובן שהיא עצמה לא אומרת דברים כאלה בשום צורה לשום כיוון,
כמדיניות,
וכשאתה שומע את זה בפעם הראשונה זה נשמע מאוד אמיתי,

(19:24):
השפתיים נראות מאוד גאוניות,
ואז כשומע את זה פעמיים,
שלוש, ארבע, פתאום אתה רואה שפתאום השתנה להם המבטא.
עכשיו, גם פה אני אומר אם אתה לא דובר אנגלית או לא שמעת מספיק אנגלית,
זה יהיה לך מאוד קשה להבין את זה עוד כמה דורות,
כאילו אם דורות אנחנו מדברים פה על כמה שבועות,
זה כנראה גם הגיע לרמה יותר גבוהה מזה שבה יהיה אפשר לזייף משהו שפוליטיקאי אמר,

(19:45):
וכולם יאמינו לזה, זה יפתח מה הדורות חדשות.
ועכשיו לך תוכיח שאין לך אחות,
כאילו הפוליטיקאי יצטרך לוכיח את זה.
הנקודה המעניינת פה היא שבעצם לקחנו יכולת שהיא די חדשה בשנים
האחרונות שזה היכולת של לעשות פרסונליזציה.
היכולת לא להסתכל על קהלים,
אלא לרדת לרמת הבנאדם הבודד,
וזה המדיה החברתית ידעה לעשות עבורנו,

(20:08):
ואנחנו מנצלים את זה לרעה.
אנחנו יכולים לנצל את זה לרעה בנושא של פרטיות,
כמו שאמרתי קודם,
להעלות פרמיה לבנאדם מסוים.
אנחנו יכולים לנצל את זה לרעה על ידי זה שאנחנו מטרגטים תודעתית גורמים מסוימים.
זה גם הוביל אותי לנושא הבא שה-AI בעצם הרבה פעמים מגיע עם תשובות בלי הסבירים.

(20:32):
זאת אומרת,
ה-AI יודע להגיד שהקורות חיים האלה לא שייכים ל...
הם לא מתאימים,
לא יהיו שייתים לבן אדם שיוכל להתקבל לעבודה,
שהבן אדם הזה הוא לא מספיק אמין על מנת לקבל, להחזיר משכנתה,
רק על סמך זה שאני מסתכל על התווה הפרצוף שלו,

(20:55):
שוב,
הפרסונליזציה,
בלי לדעת את ה...
לתת את ההסבר המתאים,
ולכן הנושא האחרון באמת ב-Responsible-A-I זה הנושא של הסברתיות.
איך אנחנו גורמים לבינה המלאכותית להסביר כיצד היא הגיעה לתוצאה מסוימת?
זה מתקשר לפרק הקודם שדיברנו בו על הנושא הזה גם.
עכשיו, ברור שכמדען נתונים,

(21:15):
יש לי יכולת להבין מה המערכת עושה,
גם אם מדובר על מערכת של למידה עמוקה.
אני יודע מה יהיו הפרמטרים, איך המטריצות מתנהגות,
איך התהליך שינוי של הדאטה עובד בתוך המערכת,
אבל אני לא יודע בהכרח להסביר את זה במונחים של האנד-יוזר.
למשל, לבוא ולהגיד, אתה לא קיבלת הלוואה בגלל שבשנים

(21:38):
הקודמות אתה הראית שההיסטוריה תחזיר ההלוואות שלך היה נמוך.
או לפעמים אני יכול להגיד, אתה לא קיבלת הלוואה בגלל שאתה לא בן 35. עכשיו,
יש דברים שאני יכול לעשות משהו איתם,
למשל אני יכול להתחיל להחזיר הלוואות יותר בצורה אמינה.

(21:59):
אבל אם עברתי את גיל 35 קצת קשה לי לחזור אחורה,
אז חלק מההסברים שאני נותן הם רלוונטיים,
חלק מההסברים הם לא רלוונטיים. אם היינו רוצים שהבינה
המלאכותית אנחנו נקבל אותה כאמינה,
בין השאר אנחנו צריכים גם את הכלים המתאימים בשביל לייצר הסברתיות.
וה-reasoning הוא לא מתאים לדבר הזה?
זאת אומרת,
כשאנחנו רואים ריסונינג אנחנו מקבלים איזשהו הסבר של דרך החשיבה של ה-AI בשביל לתת תשובה?

(22:24):
זה לא, אם אני מבין נכון, זה צריך להיות קצת יותר מתוחקה מזה?
כן, כי ה-reasoning עצמו הוא פשוט אומר, מתאר לנו איך האלגוריתם
מחר במסלול מסוים מבין האופציות שעומדות בפניו.
אבל אנחנו צריכים להיות מסוגלים להסביר את זה.
למשל, אם אני מנסה להסביר לבן אדם למה הוא לא קיבל הלוואה,

(22:44):
זה שונה מאשר אם אני מנסה להסביר למנהל הבנק,
למה אנשים מקבלים או לא מקבלים הלוואות.
אתה משתמש במונחים אחרים.
תחשבו על עצמכם אם אתם צריכים להסביר משהו
למנהל או לכפוף אליכם או לקולגה לעבודה.
אתם משתמשים במילים אחרות.
עכשיו הללמס, ה-chat gpt, יש לו את היכולת,

(23:07):
כן,
הרבה פעמים לבטא את זה במונחים הנכונים.
יש לנו כל מיני ניסויים שבעצם בהם אנחנו מראים שאפשר לאמן ללמס,
להתנהג כמו agent אנושי, אפילו כמו agent אנושי מסוים.
שוב, חוזרים לפרסונליזיישן.
ובמצב כזה יכול להיות הללמס,
אחד הדברים שאנחנו אוהבים להשתמש בו זה בתור אינטרפייס להסברתיות,

(23:31):
הוא אוהב לדבר ולכן אנחנו מנצלים את היכולת
הזאת על מנת לקבל ממנו מידע נוסף.
אוקיי.
אז ספר לנו איך הגעת לסנאט לדבר עם סנאטרי.
אז זהו.
אז אנחנו, הסיפור שלנו התחיל בעצם ביצירת קורס משותף למדעני מחשב ולמשפטנים,

(23:53):
כאשר הקורס הזה הוא בנוי בתור אוסף של מודולים,
כאשר כל מודול הוא אפשר לחשוב עליו כעל חדר בריחה.
אנחנו מספרים סיפור בנושא מסוים מ-Responsible AI עם use case,
ועל מנת לפתור את ה-use case, הסטודנטים צריכים
לשלב skills גם מדאטה וגם ממשפטים.
למשל, אם ה-use case הוא קייס משפטי,

(24:16):
אז המשפטנים צריכים לבוא עם הטיעונים המתאימים מהחוק הרלוונטי,
אבל זה לא מספיק כי צריך לתמוך את זה גם בדאטה.
ולפעמים אנחנו מראים להם שהדאטה הוא לא מה שהוא נראה.
למשל, הרבה פעמים אנשים מגיעים למערכות שמבוססות ראייה ממוחשבת,
ומניחים שבגלל שקוראים לזה ראייה, אז המערכות מחשבים,

(24:37):
רואות בדיוק כמו בני אדם.
והתפקיד של הדאטה סיינטיס פה זה להסביר שזה טיפה שונה.
עכשיו, אנחנו הרצנו את הקורס הזה כמה פעמים,
גם התרחבנו,
היינו בנוסף לטכניון ואוניברסיטת תל אביב,
גם צירפנו אוניברסיטאיות מארצות הברית,
למשל את קורנל טק, את אוניברסיטת בוסטון,

(24:58):
אוניברסיטה מאיטליה, בוקוני,
ובעצם,
ככל שהתפתחנו עם זה,
אנחנו גילינו שהכיתה או הגישה שלנו של החשיבה הזאת המשולבת ומה שאנחנו קוראים
purple thinking,
היכולת שלך לחשוב גם על הblue team וגם על הred team בו-זמנית,
היא מאפשרת לנו להתרחב גם לתחומים אחרים.

(25:19):
אז הייתה לנו התנסות עם חברות סטארט-אפ שעובדות בקורנל טק,
ואחר כך גם הבנו שבעצם אנחנו יכולים להגיע לרגולטורים.
ובהקשר הזה אנחנו התחלנו עם רגולטורים בארץ,
דרך הרשות לחדשנות,
ודרך קשרים למעשה הגענו לקונגרס האמריקאי,

(25:43):
לדבר עם staffers,
לא עם הנציגים הנבחרים,
אלא עם אלה שעובדים דרכה אצלם והם בעצם אלה שמסייעים בכתיבת החוקים וכן הלאה,
והגענו לשם ליומיים,
יומיים סוערים,
בין השאר כי היה שם גם סופת טורנדו באמצע,
וביומיים האלה נתנו להם את המודולים האלה.

(26:04):
עכשיו,
המטרה של כל מודול כזה זה לעודד חשיבה בכיוון מסוים של Responsible AI,
כאשר השאיפה שלנו הייתה שכאשר הם יבואו וייבצעו את החקיקה הבאה,
אל-AI-אקט, הם ידעו יותר גם על הטכנולוגיה וגם על היכולת לשנות דברים.

(26:25):
בהמשך גם יצאנו לעבוד עם עמותות מסוימות שהן עמותות של האו"ם,
ובאופן כללי אני מאמין שבשלב הזה,
כאשר הרגולטורים הם לא מבינים עד הסוף מה הטכנולוגיה עושה,
כאשר הטכנולוגיה עצמה היא קשה להבנה.

(26:45):
היא משתנה גם כל הזמן, זאת אומרת, איך אפשר לקבוע חוק עכשיו ל-20-30 שנה קדימה,
כשהטכנולוגיה...
השתנה כל שבועיים.
כל שבועיים.
כאילו,
שוב,
בין השיחה שבעצם שלנו הייתה ועד עכשיו,
שעבר...
לא זוכר כמה...
שבועיים.
-שבועיים, משהו כזה,
נוספו עוד איזה כמה פיצ'רים קטנים.
בין השיחות שלנו בעצם נוסף ה-deep-seek,
היתרון שלו זה שהוא בא להראות שהוא הרבה יותר יעיל,

(27:09):
אבל היה ברור מראש שכל הדברים שנחשפו אחרי ה-deep-seek הם יצופו,
וזה הכל קשור ל-responsible AI.
מסתבר...
קודם כול, יש את הזכות השימוש בדאטה.
אז באופן די הזוי, open-AI, שבעצמם לקחו וישתמשו בדאטה של אחרים,
מתלוננים על זה שמשתמשים בדאטה שלהם.

(27:30):
למי שייך הדאטה?
שוב, אותה שאלה. מסתבר שבקוד שלהם הם חשפו דאטה,
החברה ה-deep-seek, ואחרי שזה יצא והתפרסם, הם כמובן,
הריצו את המהנדסים שלהם בשביל לנקות את זה,
אבל יש פה פגיעה בפרטיות.
בדוגמה שאנחנו נותנים במודולים שאנחנו מלמדים,

(27:50):
אנחנו בעצם מדברים על איזושהי מערכת קוריאנית.
איזה היה מין צ'טבוט כזה בעצם,
אנחנו ראינו דוגמאות דומות לזה גם בצ'טבוטים אמריקאים,
שבעצם כשהוא מנסה להתאמן וללמוד על הצ'טים עצמם,
הוא הופך להיות מהסוג של טוקבק הכי גרוע שיכול להיות,

(28:11):
ולכן הם נאלצו להוריד אותו.
אבל על הדרך גילו שבעצם הבוט הזה גם חשף
משפטים שלמים מתוך הדאטה שאותו הוא למד.
את הדאטה שהוא למד זה היה מאפליקציה אחרת של אותה חברה שזה הייתה אפליקציה של היכרויות.
האם האנשים שהשתמשו באפליקציה של היכרויות נתנו את האישור שלהם להשתמש בשורות שלהם,

(28:34):
ללמידה או אפילו יותר גרוע,
לפלוט אותם?
זה חשף אבל מידה רגיש או שפה סתם משפטים?
זה לא ממש רלוונטי.
אתה יודע,
אתה אומר,
גם אם זה לא משפט סתמי?
-זה לא ממש רלוונטי אם זה חושף מי אני.
עצם העובדה שאני לא נתתי,
שאני נתתי אישור באפליקציה הזאת נניח ללמוד עליי בשביל לשפר את הדברים בשבילי.

(28:54):
אם מסתבר שלומדים עליי בשביל להשתמש בזה באפליקציה אחרת,
כבר שם צריך לשאול את השאלה האם זה מותר או לא.
דיפסיק בהצהרה שלהם מצהירה שכל הדאטה שהם משתמשים ולומדים פתוח לממשלה הסינית.
למה על פי חוק?
כי הם סינים.
-נכון.

(29:14):
באירופה זה לא יעלה על הדעת,
דבר כזה.
באירופה אם יש איזשהו חשש לחשיפה או לפגיעה בפרטיות,
אתה לא עושה את זה.
-אני רוצה עוד פעם לחזור על מה שאמרנו פעם קודמת,
לשמוע דעתך על זה,
על דיפסיק,
מה שהתפרסם בסופה של זה.
שנותנים לו, אומרים, תחזור על המשפטים,

(29:35):
sky is blue,
זה,
טיוואני זה country,
וטיואני זה חלק מהצדרת של חינם.
מה עם ה...
מבחינת responsibility,
הקטע הזה,
שבעצם המודל מאומן למציאות מסוג אחד,
לראייה אחת של המציאות ומעלים דברים או מעלים דברים מההיסטוריה.
או זה...
-הוא משקף את התרבות שממנה הוא חונך.

(29:56):
-אפשר גם לחשוב על זה שהוא בעצם מקיים את חוקי המדינה.
כי על פי חוקי סין, טיוואן היא חלק מסין.
על פי חוקים של ארה״ב ואירופה,
פדופיליה זה דבר אסור.
אז בכל מדינה אתה חייב קודם כל לעמוד בחוקים.
ולכן אני לא מאשים חלילה את דיפסיק על כך שהוא טוען שטיוואן היא חלק מסין,

(30:22):
כי על פי חוקי סין שבה הם פועלים, שם ככה הם צריכים לעבוד.
עדיין יש תחום אפור,
שבו ל-responsible AI יש מקום לשחק תפקיד,
ולאותם אנשים שאותם אנחנו מכשירים,
יש מקום ללמוד ומה שאני קורא לגדל מצפון,
על מנת להחליט באותם תחומים אפורים מה לעשות ומה לעשות.
אגב, לדעתי יש פה שאלה מאוד מעניינת,

(30:45):
של...
לכנס פה,
שאם אתה נותן שירותים ממדינה מסוימת,
אבל השירותים הם גלובליים לגמרי,
על איזה מערכת חוקים אתה עובד.
זאת אומרת, אם אני משתמש בשירות שבמקרה רץ על שרתים סינים,
האם אני כפוף לחוקי סין,
והאם אני מודע לזה?
שאני בעצם כפוף לחוקים הסינים ובעצם עכשיו אני במערכת

(31:10):
יחוס שונה מהמערכת יחוס הרגילה שלי על פי חוק.
זה גם אלמנט, זה בטח דורש גילוי נאות
מכל בינה מלחודית שאני נכנס אליה,
מה, על איזה מערכת חוקים אני רץ עכשיו.
נכון, נכון, לגמרי.
אז נגענו בהמון המון נושאים ונקודות שאני חושב

(31:31):
שהבנו מה זה ה-Risponsible AI,
אבל בסוף בסוף בסוף יושב מהנדס,
שהוא מתכנת את הסיפור הזה.
איך זה פוגש אותו?
איך זה משפיע עליו?
ובעצם מה עכשיו בעצם,
אני מנסה כאילו רגע לקחת את זה הפרקטיקה,
מה הוא אמור לעשות?
כן.
בצורה אחרת או...
אז באמת אנחנו בין שאר הדברים אחרי ההתפתחות שעברנו דרך האקדמיה וסטארט-אפים

(31:54):
והרגולציה.
הקמנו קבוצה שנקראת פראקסיפיי,
שהיא בעצם קבוצה שהתפקיד שלה הוא להתמודד עם מה שאנחנו קוראים ה-Last Mile.
מצד אחד,
יש לנו רגולציה מאוד גדולה של האירופאים והאמריקאים וכן הלאה.
מצד שני,
אנחנו בעצם רואים שאנשים מפתחים ומשתמשים ב-AI.

(32:15):
חברות משתמשות ב-AI.
למשל,
יש את הדוגמה של איר קנדה שפיתחה בוט שיודע לדבר עם אנשים,
ואחר כך סירבה לעמוד מאחורי האמירה של הבוט,
למשל,
שכרטיס טיסה מסוים הוא fully refundable,
ונאלצו בבית המשפט להכריח את החברה לעשות זאת.
מצד שני,

(32:35):
אנשים גם רוצים להשתמש ב-AI בלי שום קשר לחברה.
אנשים רוצים להשתמש בכל פיילוט על מנת לשפר את היכולת התכנותית שלהם,
אנשים מתייעצים עם LLMS על מנת לפתח תוכניות שיווק יותר טובות וכן הלאה,
וחברות מרשות או לא מרשות את הדברים האלה.

(32:55):
כך שיש המון מקומות שבהם המהנדס בקצה,
צריך להיות מסוגל להבין איך הוא לוקח את ה-Last mile,
איך הוא לוקח את הדבר האחרון שאמרה לו החברה,
והחברה בתור ה-companie והחברה בתור ה-societ,
ולתרגם את זה לעבודת היום-יום שלו.
אני אתן לכם דוגמה שחוזרת לעולם שלי,

(33:16):
אנחנו, התעשייה שלנו זה כתיבת מאמרים.
ה-LLMS מאוד טובים בלסייע לנו בכתיבה.
איפה עובר הגבול בין מה שאנחנו כותבים לבין השימוש ב-LLM?
אז בכנסים האקדמיים היו ניסיונות בשנים האחרונות לצרף LLM בתור כותב למאמר,
ובסופו של דבר הגיעו למסקנה שזה לא הדרך הנכונה.

(33:39):
כמו שאתה לא מוסיף למאמר מישהו שמשכתב לך את העבודה,
אתה גם לא תוסיף את ה-LLM.
מצד שני,
אתה גם לא מבקש מ-LLM לכתוב את כל המאמר ושולח אותו as-he's.
היום.
-הוא מוסיף גם מידע, אבל,
זאת אומרת ה-LLM באיזשהו מקום גם מוסיף מידע לתוך,
אז כן יש לו איזושהי שותפות.

(33:59):
או סתם אני אקח...
-תנייה רגע.
על ציר הזמן זה משתנה הדבר הזה ככל שאנחנו אומרים.
למשל אם עכשיו יש לי איזשהו מאמר שיש בתוכו איזושהי טבלה גרפית או משהו כזה,
אני יכול לתת את זה ל-LLM,
שינתח את זה וכבר יש לנו דוגמאות כאלה ואחרות שהוא ייתן איזשהו זווית שלא חשבנו עליה קודם.
-נכון.
אז הוא כן ייחשב כשותף במצב כזה.

(34:21):
אז, ואז נשאל את השאלה איפה נגמרת היציאתיות והשליטה שלנו כאנשים ואיפה מתחילה העבודה של ה-LLM?
עכשיו, באקדמיה אין פתרונות לזה, כמו שאין פתרונות לזה כרגע בתעשייה,
אנחנו הכול על קרקע שמשתנה כל הזמן,
כרגע עוד די ברור שהרעיונות היצירתיים מגיעים מהחוקרים,

(34:45):
וה-LLLM מסייע בהמשך, אבל כמו שדוש אמר, לא ירחק היום.
ה-LLLM יהיה מסוגל לעשות את הכל מאפס,
ואז נשאלת השאלה מה המקום שלו בתוך העולם שלי האקדמי,
באותו אופן שבו נשאל את השאלה מה המקום של קוד שנכתב על ידי copyilot,
גם מבחינת האחריות,
גם מבחינת הפרטיות,

(35:06):
גם מבחינת אפליה,
גם מבחינת מי בעצם עושה את העבודה,
ובעצם כל אחד ואחת מאיתנו מתמודד עם זה בכל מקום בחיים,
אנחנו עוד לא שם, עוד לא יודעים איך לפתור את זה.
מה שברור שבעולם שהוא כל כך משתנה,
אנחנו חייבים להכשיר את האנשים להבין איך ה-LLLLLL עובד.

(35:26):
איך להבין מה החקיקה,
להבין לאיזה כיוונים היא הולכת,
איך אני יכול לתת לה אינטרפטציה,
איך אני יכול להגן על עצמי בתור עולם כזה שהוא עולם מאוד AII שרחב.
ובהקשר הזה אני רק רוצה בתור נקודה ככה למאזינים,
לחשוב על ימי המהפכה התעשייתית.

(35:47):
לימי המהפכה התעשייתית המצאו את החשמל.
החשמל בפני עצמו לא היה טוב ולא היה רע,
אבל אפשר היה לעשות איתו שימושים טובים ושימושים רעים ושימושים טובים שהפכו להיות רעים.
כמובן שפתאום הנושא של כוח פיזי לא היה כל כך חשוב,
כי בעצם אתה יכול להשתמש בחשמל לכל מיני דברים כאלה.
לכאורה זה היה אמור לייצר איזון בין חלשים וחזקים,

(36:10):
או מין חזק ומין חלש.
בסופו של דבר אפשר היה להשתמש בזה,
ובמשך שנים השתמשו בזה בעצם על מנת לקחת אנשים שאיבדו את עבודתם המקורית,
לתת להם עבודה חלופית שבה הם עובדים הרבה יותר שעות ביום,
יש להם הרבה פחות שנים בחיים שלהם, הם הרבה פחות מאושרים.

(36:30):
אנחנו צריכים להיזהר ש-AI לא יביא אותנו לאותו מקום,
או לקצר את תקופת המעבר הזאת.
ריספונסיבל-AI יש לו חלק חשוב בסיפור הזה.
דוגמה מעניינת, הקבלה מעניינת.
טוב,
נושא שהוא אולי טיפה לא קשור,
אבל אני כן חשבתי שהוא מאוד מאוד מאוד מעניין,
וזה אולי טיזר.
דיברת על ניסוי שעשיתם אצלכם עם סטודנטים,

(36:53):
בהקשר של זמן פיתוח על LLM. -נכון.
מה,
אם תוכל לספר לנו קצת על הניסוי הזה ועל התוצאות שלו,
זה עוד לא יצא כמאמר, נכון?
אז כרגע זה מאמר ב-review.
ב-review, אז יש לנו פה סקופ, נכון?
ה-LLM לא עזר לנו לכתוב אותו.
מה שבעצם אנחנו עשינו זה היה עבודה בשיתוף פעולה עם אוניברסיטת שיקגו.

(37:16):
אנחנו לקחנו סטודנטים בקורס של מבוא לדייטה סיינס,
הם מריצים פרויקט.
את הפרויקט הם מריצים על סוג של ג'ופיטר נוטבוק.
אנחנו,
בישורם כמובן,
שמנו מאזין על המחברת על מנת להבין איך דייטה סיינטיסט מתחיל,
עובד על הפרויקט של דייטה.

(37:37):
את הניסוי אנחנו הרצנו בעצם במשך שנתיים ברצף,
2022-2023,
בדקנו כל מיני פרמטרים,
זמן פיתוח,
שגיאות אופייניות,
איזה פיצ'רים משמשים בפרויקט וכן הלאה וכן הלאה.
התמזל מזלנו ובין 2022-2023 נכנס ה-ChatGPT.
זאת אומרת,
הניסוי של 2022 היה לחלוטין ללא עזרה של ChatGPT.

(38:01):
הניסוי של 2023, בידוד שלנו,
היה עם ChatGPT,
הסטודנטים למדו להכיר אותו מחדש,
כמו שאנחנו למדנו להכיר אותו.

אנחנו, אני אספר פה על שתי אנליזות מעניינות (38:11):
אחת,
זה מדדנו את סיר הזמן.
יצאנו לדעת כמה זמן לוקח לפתח אפליקציה כזאת.
2022 לקח לסטודנטים הרבה יותר זמן לפתח את האפליקציה מאשר 2023. הדבר השני,
אנחנו יצרנו מדד שבעצם...
זאת אומרת,
יש פה הנחה שהסטודנטים הם באים בלי ידע או ידע מאוד מינימלי?

(38:33):
זה חג...
הם כולם מתחילים מידע בסיס...
מידע בסיס.
-מאוד נמוך.
-כן.
לומדים בקורס איך לנהל דאטה ומריצים פרויקט בסופו.
אז זה נותן לנו איזושהי השוואה, כלומר,
רוב הסטודנטים לא באו עם רקע קודם.
אז זה היה מדד אחד, מדד הזמן.
ברור שהאלמנט העיקרי היה ChatGPT שסייע להם לקצר מאוד את התהליכים.

(38:55):
מצד שני,
היה לנו גם מדד של דייברסיטי שבאה לבדוק עד כמה הפתרונות הם שונים אחד מהשני,
ושם אנחנו ראינו שהפתרונות ב-2022 היו הרבה יותר מגוונים מאשר ב-2023.
עכשיו, אין פה הוכחה מוחלטת של קוזליטי, יש פה הקורלציה,
אבל אפשר להגיד בסבירות מסוימת ששימוש ו-LLMS אכן

(39:18):
משפר את הביצועים שלנו.
אנחנו מגיעים הרבה יותר מהר למה שהיינו רוצים להגיע.
מצד שני,
ה-ChateGPT והחברים שלו מכוונים אותנו לפתרון מסוים,
ובמידה שאנחנו לא מפעילים את הראש שלנו,
אנחנו נצמדים לפתרון הזה,
ובצורה כזאת אנחנו בעצם פוגעים ב-innovation.
עכשיו, ה-innovation זה מה שבעצם מבחין אותנו מאנשים אחרים.

(39:42):
כך שעוד דבר שמהנדס צריך לפרש לעצמו עם ה-last mile,
זה איך לא לסמוך עד הסוף על ה-LLMS,
כי בעצם אז הוא יפתור אותה,
את הבעיה בדיוק באותה דרך כמו שזה שלידו.
ואני מניח שאנחנו נגיע למצב שבו אנשים ידעו איך להתנהל גם בעולם כזה,
ולהמשיך ולשפר את ה-innovation.

(40:03):
מעניין.
אני רק רגע, אני רוצה לחדד את הנקודה פה,
האם זה בעצם נובע מזה שהרבה אנשים שאלו את אותה שאלה בדיוק או בווריאנטה זהה,
זאת אומרת הם לא ידעו איך לשאול את השאלה ולכן גם קיבלו תשובה זהה,
או שזה נובע מהצורה שבה ה-LLM נתן את התשובה בסוף.

(40:23):
זאת אומרת, הוא נתן בעצם את אותה תשובה לכמה שאלות...
אתה מדבר גם על ה-LLM ישן יחסית.
כן, איזה LLM, מה אנחנו מדברים, על שלוש וחצי ארבע כזה או...
כל אחד מהם השתמש במשהו בחר,
אני מניח שמובם בחרו להשתמש בגרסה החינמית,
יכול להיות שזה היה אפילו שתיים אצלם,
אין לנו, אין לי תשובה לזה,
כי כל הדברים האלה זה פרמטרים שאנחנו צריכים לבדוק ולקבע.

(40:46):
ההנחה שלי היא שה-LLLM זה יש להם דרך חשיבה מסוימת,
ודרך החשיבה הזאת מובילה,
יכולה להוביל יוזר למקום מסוים.
עכשיו, דרך החשיבה הזאת יכולה להיות גם לחלוטין לא אנושית,
כי כשאנחנו חושבים על בינה מלאכותית,
אנחנו תמיד מדמיינים עלינו מצב של רובוט שחושב כמונו.

(41:07):
אבל היו כבר מקרים בעבר, למשל אימון של AlphaGo,
כאשר אתה מאמן מערכת, שתי מערכות למידה אחת מול השנייה,
אתה מקבל אסטרטגיות שהן לא אסטרטגיות אנושיות,
שזה לטובה ולרעה.
אבל האסטרטגיה של ה-LLLM היא אותה, היא בעצם על בעיה מאוד מאוד מאוד סגורה,
כמו שאנחנו נתנו להם,

(41:28):
לא היה הרבה מרחב,
וה-LLM בחר דרך מסוימת וכולם עקבו אחריו.
-נכון.
-אבל אם היית יוצא רגע מהקופסה ומנסה לחשוב על משהו אחר,
או היית משכנע את ה-LLM לחשוב על משהו אחר,
לייצר,
להיות יצירתי יותר,
יכול להיות שהיינו רואים דיוורסטיות יותר גדולה.
-יכול להיות שיש פה גם עניין של הצלנות.
סטודנטים מגישים פרויקט,

(41:49):
פחות זמן,
למה שאני אשכנע את ה-LLM אם זה עובד?
-אז בוא, אני אספר לך סיפור על הצלנות שבאמת יכול לפגוע בנו,
כנראה סיפור אחרון. בסין,
בנו מערכת של תמיכה בקבלת החלטות רפואיות,
ובתור ניסוי שמו את זה עם רופאים בבית חולים מסוים.
עכשיו, בתי חולים בסין הם מאוד עמוסים, לרופאים אין הרבה זמן לראות כל פציינט.

(42:14):
ציינט בא, מספר על הדברים שלו, הרופא בודק אותו, מכניס את כל הנתונים למערכת,
ומקבל החלטה מה יש לו,
והמערכת בינה המלאכותית מקבלת החלטה מה יש לו.
התוצאה מעניינת שתוך שבוע, מהרגע שהמערכת הזאת נכנסה לפעולה,
-כולם מריעים.
-כן.
הרופאים הפסיקו לקבל החלטות שמנוגדות למערכת הבינה המלאכותית.

(42:35):
תקרא לזה הצלנות, תקרא לזה efficiency,
תקרא לזה אמון,
מה שלא יהיה אנחנו כבני אדם,
כשיש לנו מערכת אוטומטית שעושה בשבילנו דברים,
אנחנו מפסיקים,
מעבדים את הסקיל לעשות את זה לבד.
-וואו.
אנחנו כבר לא יודעים לנהוג לבד בגלל שיש לנו Waze, אוקיי?
אנחנו בקושי יודעים להכין קפה לבד כי המכונות יודעות לעשות את זה בשבילנו.

(42:58):
אותו דבר יקרה עם ה-LLM.
מי שישתמש אך ורק ב-LLM יאבד את היכולת שלו לחשוב.
ובצורה כזאת אנחנו בעצם מנתבים את האנושות לעולם אחר,
שבו החשיבה והיצירתיות תהיה הרבה יותר משמעותית מאיזשהו
סקיל טכני של לדעת לצייר יפה או לבנות עם פטיש ומסמר.
-זה קצת קאונטר-טינקינג למה שקורה היום.

(43:20):
זאת אומרת, היום כשאתה מסתכל על שוק, כל החברות רצות ל-AI,
בין אם זה לפתח לבין אם זה adoption, והצד הזה שעכשיו אתה מדבר עליו,
שהוא לא מוכר,
זאת אומרת שהוא עוד לא צץ ולא על פני השטח עדיין,
בעצם יצוץ ויצוף, ופתאום ירגישו שאוקיי,
יש לנו,
אנחנו מצליחים להרגיע להרבה יותר דברים,
הרבה יותר מהר,
שזה יכול להתאים,
דרך אגב,

(43:40):
לחלק מהתעשיות,
לא יודע,
אני יכול לחשוב על מוקדים כאלה ואחרים,
שכנראה העבודה היא מאוד מאוד חוזרת על עצמה ואין שם אינוביישן,
לעומת מקומות שפתאום הם אינוביישן,
ואז אתה אומר,
רגע,
יש לי צוותי מחקר,
אסור שהם ישתמשו בLL, אולי, לא יודע.
זה מעלה עוד כל מיני שאלות אחרות. בסדר, הזמננו אותם, שלום פה לוחץ עליי מה שנקרא,

(44:02):
עושה לי כבר עיניים.
היה לנו פרק סופר מעניין, מאוד מאוד מאוד רלוונטי,
מעניין מה יקרה עוד שנה,
עד כמה הוא יהפוך להיות עוד יותר רלוונטי ומעניין.
כן, זה...
בתחום הזה אנחנו מודים שבועות, לא שנים, שנה...
-שעות! זה אומר על השעות.
אז אבי, קודם כל, תודה רבה שבאת, אין לי ספק שזה יהיה אחד מהפרקים

(44:25):
המואזנים.
אני בעצמי כנראה אאזין לו כמה פעמים,
אז תודה רבה.
-תודה לכם שאירחתם אותי.
-בשמחה.
כמובן,
כמו שאמרתי,
אנחנו נמשיך בסדרת הפרקים שלנו בנושא AI,
וכמובן,
נחבר את זה עם אופן סורס כרגיל,
אי אפשר לוותר על הדבר הזה.
מוזמנים,

(44:45):
להמשיך לעקוב אחרינו בכל המדיות,
פודקאסטים הרלוונטיות,
וניפגש בפרק הבאה, רק נקודה קטנה,
יהיו לינקים מעניינים לחומרים מעניינים במדיותר,
זה כדאי להזין ולהסתכל.
-ולהסתכל עליו.
-ולהסתכל.
תודה רבה ולהתראות.
Advertise With Us

Popular Podcasts

Stuff You Should Know
24/7 News: The Latest

24/7 News: The Latest

The latest news in 4 minutes updated every hour, every day.

The Joe Rogan Experience

The Joe Rogan Experience

The official podcast of comedian Joe Rogan.

Music, radio and podcasts, all free. Listen online or download the iHeart App.

Connect

© 2025 iHeartMedia, Inc.