מדיה

אסטרטגיה

סיפורו של חלוץ הבינה המלאכותית והאתגר של שימוש אחראי ב-AI בארגונים

איליה סוצקובר, מחלוצי הבינה המלאכותית ומייסד שותף של OpenAI, עזב את הארגון בעקבות חילוקי דעות ערכיים בנוגע לשימוש אחראי בטכנולוגיה. כעת הוא מוביל חזון חדש המתמקד בפיתוח בינה מלאכותית שתשמש את האנושות בצורה שקופה, הוגנת ובטוחה.

איליה סוצקובר, נחשב לאחת הדמויות הבולטות והחשובות בעולם הבינה המלאכותית. הוא נולד וגדל בירושלים עד גיל 15, אז עבר עם משפחתו לקנדה. כבר מגיל צעיר הפגין כישרון יוצא דופן, שהוביל אותו לאוניברסיטת טורונטו, שם עבד תחת הנחייתו של פרופ' ג'פרי הינטון – מאבות תחום הלמידה העמוקה (Deep Learning).

הקריירה של סוצקובר התפתחה במהירות. הוא הצטרף לצוות Google Brain, שם תרם למחקרים פורצי דרך בתחום למידת המכונה, אך הפריצה האמיתית הגיעה כאשר ב-2015 היה שותף להקמת OpenAI – ארגון שנולד מתוך חזון לפתח בינה מלאכותית שתיטיב עם האנושות.

הקמת OpenAI: החזון שהתנפץ

הקמת OpenAI הייתה נקודת מפנה לא רק בקריירה של איליה סוצקובר, אלא גם בעולם הטכנולוגיה כולו. הארגון נולד מתוך חזון שאפתני: לפתח מודל בינה מלאכותית שיהיה זמין ונגיש לכלל הציבור, תוך שמירה על עקרונות אתיים ושימוש אחראי. המטרה המרכזית הייתה להבטיח שהטכנולוגיה תשמש לתועלת האנושות כולה ולא תיפול לידיים שייעשו בה שימוש לרעה.

לצד שותפיו המייסדים, בהם סם אלטמן וגרג ברוקמן, היה סוצקובר דמות מרכזית במרכזי המחקר והפיתוח של OpenAI, תרומתו הרבה הובילה ליצירת מודלים פורצי דרך כמו GPT, ששינו לחלוטין את הדרך שבה אנו משתמשים בטכנולוגיה.

אולם, מאחורי הקלעים, העניינים היו הרבה פחות הרמוניים. ככל שהארגון התקדם, התעוררו חילוקי דעות עמוקים בתוך הצוות המייסד. חלק מהוויכוחיים התמקדו בשאלות ליבה:  עד כמה OpenAI צריכה להיות שקופה בנוגע לטכנולוגיות שהיא מפתחת? כמה שליטה יש להעניק לגורמים חיצוניים על השימוש בבינה המלאכותית?

אחד הנושאים הרגישים ביותר היה הפיקוח על הטכנולוגיה. סוצקובר דרש מדיניות נוקשה יותר למניעת שימוש לרעה, במיוחד לאור החשש שמדינות או חברות יוכלו לנצל את הטכנולוגיה להשגת מטרות הרסניות, כמו פגיעה בקבוצות חלשות, מניפולציה פוליטית או פיתוח נשקים. לעומת זאת, גורמים אחרים בתוך OpenAI, כולל המנכ״ל סם אלטמן, נטו לדעה שהגישה לטכנולוגיה צריכה להיות רחבה יותר, עם מינימום מגבלות, כדי לעודד חדשנות והתפתחות עסקית.

חילוקי הדעות החריפו כאשר OpenAI החלה במעבר ממודל ללא מטרות רווח למודל עסקי. השינוי הזה גרם למתחים גדולים, כיוון שהיה חשש שפוטנציאל הרווח יהפוך לעדיפות עליונה, ויעמעם את המחויבות של הארגון לשימוש אחראי בטכנולוגיה. סוצקובר היה בין אלו שטענו בתוקף שהמעבר הזה יוביל לוויתור על עקרונות הליבה שהארגון הוקם עליהם.

ככל שהחברה צמחה, הפערים בין הצדדים הפכו לבלתי ניתנים לגישור. סוצקובר, שהאמין בכל מאודו בצורך להחיל מנגנוני פיקוח חזקים ובלתי תלויים, הרגיש שהוא לא יכול להישאר בארגון שמתחיל לסטות מהחזון המקורי. בסופו של דבר, הוא בחר לעזוב את OpenAI ב-2023. הוא בחר לקחת את ניסיונו ואת החזון האתי שלו לנתיב חדש, והקים את חברת Safe Superintelligence Inc (SSI) יחד עם שותפיו דניאל גרוס ודניאל לוי. SSI נועדה להתמודד עם האתגר הגדול ביותר של ימינו: פיתוח בינה מלאכותית שתשמש את האנושות באופן בטוח ומיטיב.

כיצד ניתן להשתמש ב-AI באופן אחראי בארגונים?

הסיפור של סוצקובר ושל OpenAI מדגיש את האתגרים המורכבים הקשורים בפיתוח טכנולוגיה פורצת דרך: מצד אחד, הרצון להאיץ חדשנות ולהבטיח צמיחה; מצד שני, הצורך להבטיח שהטכנולוגיה לא תסטה לכיוונים שעלולים לסכן את החברה, העובדים והלקוחות.
אחריות בשימוש בטכנולוגיות AI איננה רק חובה מוסרית, אלא כלי אסטרטגי לבניית אמון ארוך טווח עם לקוחות, שותפים ועובדים. ככל שהAI- הופך להיות חלק בלתי נפרד מתהליכים עסקיים, כך גוברת החשיבות להבטיח שהוא פועל בהתאם לערכים של שקיפות, הוגנות ובטיחות.

להלן מספר עקרונות שכדאי להטמיע בארגונים, כדי להבטיח שימוש אחראי בבינה מלאכותית:

  1. שקיפות
    מודלים של AI צריכים להיות לא רק יעילים, אלא גם שקופים. כלים אלו משפיעים על החלטות קריטיות בתחומים כמו פיננסים או בריאות, ולכן חשוב שהחלטותיהם יהיו ניתנות להסבר. ארגונים צריכים להשקיע ביצירת מערכות שמספקות תובנות ברורות על אופן פעולת המודלים ותהליכי קבלת ההחלטות של המודלים, כך שמשתמשים יוכלו להבין אילו נתונים או מקורות הובילו לתוצאה מסוימת.
  2. מניעת הטיות
    AI הוא כלי עוצמתי, אך הוא אינו חסין מהטיות שמקורן בנתונים שבהם הוא מתאמן. שימוש אחראי ב-AI מחייב בדיקה מתמדת לזיהוי והסרת הטיות שעלולות לגרום לאפליה או הטיה בתשובות. פתרונות אפשריים כוללים גיוון מקורות הנתונים, שימוש בבדיקות רגולריות של המודלים, וביצוע בדיקות ידנית הן על הנתונים שמוזנים למודלים והן על התשובות שהם מספקים.
  3. שמירה על פרטיות ואבטחת מידע
    בינה מלאכותית לעיתים דורשת איסוף ועיבוד כמויות גדולות של נתונים אישיים. על ארגונים להבטיח שהמידע מוגן בהתאם לרגולציות כמו GDPR או חוקי פרטיות מקומיים. מעבר להגנה טכנית, יש לקבוע נהלים ברורים לשימוש בנתונים, ולהגביל את הגישה אליהם.
  4. פיקוח ובקרה מתמשכים
    בינה מלאכותית היא לא "שגר ושכח". מודלים מתעדכנים ומשתנים עם הזמן, ולעיתים משנים את התנהגותם באופנים לא צפויים. חשוב ליישם מערכות פיקוח שוטפות ולבצע בדיקות תקופתיות כדי לוודא שהמודלים עומדים בסטנדרטים הארגוניים והרגולטוריים.
  5. חינוך והכשרה בתוך הארגון
    כלים של AI הם חזקים ובעלי פוטנציאל אדיר, אך גם דורשים הבנה מעמיקה. ארגונים צריכים להשקיע בהכשרת העובדים לשימוש נכון בכלים, להבנה של האתגרים האתיים והמקצועיים הכרוכים בהם, ולחשיבות של שימוש אחראי בהם.

לסיכום, השימוש בבינה מלאכותית הוא הזדמנות יוצאת דופן לשיפור תהליכים, קבלת החלטות וחדשנות. יחד עם זאת, חשוב לזכור ש"עם כוח גדול באה אחריות גדולה" – וכוח זה מחייב אותנו להבטיח שימוש מושכל ואחראי בטכנולוגיה.
אומנם, כיום במקומות רבים אין רגולציה ברורה בתחום, ונראה כי בישראל ייקח עוד זמן עד שזו תעוגן בצורה משמעותית, אך דווקא בהיעדר רגולציה, זוהי הזדמנות עבור ארגונים להוביל ולהגדיר קווים מנחים ברורים.
על ידי יישום עקרונות של שקיפות, מניעת הטיות, שמירה על פרטיות, פיקוח שוטף והכשרת העובדים, ארגונים יכולים להבטיח שטכנולוגיות AI ישרתו את החברה בצורה בטוחה, הוגנת ומוסרית. האחריות לשימוש נכון בכלים אלו אינה רק חובה אתית, אלא גם הזדמנות להוביל שינוי, לבנות אמון ולהבטיח הצלחה עסקית בטווח הארוך.

אורי גרוטו | Consulting Analyst

דברו איתנו

מעוניינים בתהליך צמיחה משמעותי?

מלאו את הפרטים שלכם ואנחנו נעשה את השאר

    תפריט נגישות