בתחילת חודש יוני חיפשה אמנדה קלייפול עבודה במסעדת מזון מהיר באשוויל, צפון קרוליינה. אבל היא עמדה בפני מכשול בלתי צפוי ומעצבן: מגייסי צ'אטבוטים תקולים.
אלה מנועים אוטומטיים, מבוססי בינה מלאכותית, שתפקידם לסנן מועמדים לעבודה. אבל הנה כמה דוגמאות למקרים בהם הם לא עבדו כשורה: מגייסת הצ'אטבוט של מקדונלד'ס "אוליביה" זימנה את קלייפול לראיון אישי, אבל אז לא הצליחה לקבוע זמן שבו ייערך בגלל בעיות טכניות. הבוט של רשת המזון המהיר וונדיס הצליח לזמן אותה לראיון אישי אבל זה היה עבור עבודה שהיא לא יכלה לעשות. ואז צ'אטבוט של רשת המסעדות הארדיס שלח אותה לראיון עם מנהל סניף – שבכלל היה בחופשה.
"כשהגעתי לסניף של הארדיס הם די הופתעו. לצוות המפעיל את המסעדה לא היה מושג מה לעשות איתי או איך לעזור לי", אמרה קלייפול לפורבס, ובסופו של דבר החלה לעבוד במקום אחר. "זה נראה כמו דבר מסובך יותר ממה שהיה צריך להיות", היא הוסיפה. (מקדונלד'ס והארדיס לא שלחו תגובה. דובר וונדיס אמר לפורבס שהבוט יוצר "יעילות בגיוס עובדים", והוסיף "חדשנות היא ב-DNA שלנו").
צ'אטבוטים בשירות משאבי האנוש, כמו אלה שקליפול נתקלה בהם, נמצאים בשימוש יותר ויותר בתעשיות כמו בריאות, קמעונאות ומסעדות כדי לסנן מועמדים לא מתאימים ולקבוע ראיונות עם אלה שעשויים להיות מתאימים יותר לתפקיד. מקדונלד'ס, וונדי'ס, CVS Health ו-Loes משתמשים ב- Olivia, צ'אטבוט שפותח על ידי הסטארט-אפ AI Paradox, שבסיסו באריזונה ושווה 1.5 מיליארד דולר. חברות אחרות כמו לוריאל מסתמכות על Mya, צ'אטבוט AI שפותח בסן פרנסיסקו על ידי סטארט-אפ בעל אותו שם.
רוב הצ'אטבוטים שתפקידם לגייס מועמדים לעבודה באופן אוטומטי אינם מתקדמים או משוכללים כמו מנועי שיחה עכשוויים כדוגמת ChatGPT. הם שימשו בעיקר לבדיקת משרות שיש להן כמות גבוהה של מועמדים – קופאיות, מחסנאים ונציגי שירות לקוחות. הם בסיסיים ושואלים שאלות פשוטות למדי: "האם אתה יודע איך להשתמש במלגזה?" או "האם אתה יכול לעבוד בסופי שבוע?" אבל כפי שמצאה קלייפול, הבוטים האלה יכולים להיות בעייתיים – ולא תמיד יש מישהו אנושי לפנות אליו כשמשהו משתבש. כשאלה דורשים תשובות ברורות – זה עשוי להוביל לדחייה אוטומטית עבור חלק מהמועמדים שאולי לא יענה על שאלות כמו שמודל שפה גדול רוצה שהם יעשו.
חשש מאפליה
זה יכול להוות בעיה גם עבור אנשים עם מוגבלות, אנשים שאינם בקיאים בשפה בה פועל הצ'אטבוט ומועמדים מבוגרים לעבודה, אומרים מומחים. אהרון קונופסקי, יועץ ועו"ד בכיר בוועדת שוויון הזדמנויות תעסוקה בארה"ב (EEOC), חושש שצ'אטבוטים כמו אוליביה ומיה עשויים שלא לספק לאנשים עם מוגבלויות אפשרויות חלופות. "אם הצ'אטבוט נוקשה מדי, והאדם זקוק להתאמה כלשהי, ייתכן שהצ'אטבוט לא ייתן לו את ההזדמנות לעשות זאת".
אפליה היא דאגה נוספת. דעות קדומות המשמשות לאימון בינה מלאכותית יכולות לגרום להטיה ולאפליה. "אם הצ'אטבוט מסתכל על דברים כמו כמה זמן לוקח לך להגיב, או אם אתה משתמש בדקדוק נכון ובמשפטים מורכבים, זה המקום שבו אתה מתחיל לדאוג שההטיה תגיע", אמרה פאולין קים, פרופסור לדיני תעסוקה ועבודה באוניברסיטת וושינגטון, שמחקריה מתמקדים בשימוש בבינה מלאכותית בכלי תעסוקה. אבל הטיה כזו יכולה להיות קשה לזיהוי כאשר חברות אינן שקופות לגבי הסיבה לדחיית מועמד פוטנציאלי.
לאחרונה, רשויות ממשלתיות הציגו חקיקה לניטור והסדרת השימוש באוטומציה בכלים להעסקת עובדים. בתחילת יולי, ניו יורק חוקקה חוק חדש המחייב מעסיקים המשתמשים בכלים אוטומטיים, כמו סורקי קורות חיים וצ'אטבוטים לביצוע ראיונות קבלה, לבדוק את הכלים שלהם לאיתור הטיה מגדרית וגזעית.
מגדילים את המאגר
ובכל זאת, עבור חברות המעוניינות לצמצם את עלויות הגיוס, מראיינים מבוססי בינה מלאכותית נראים כבחירה טובה. מחלקות משאבי אנוש הן לעיתים קרובות אחד המקומות הראשונים שמצמצמים עובדים, אמר מתיו שרר, יועץ מדיניות בכיר לזכויות עובדים וטכנולוגיה במרכז האמריקני לדמוקרטיה וטכנולוגיה. "משאבי אנוש תמיד היו במרכז העלויות של החברה, זה אף פעם לא היה דבר שיוצר הכנסות", הסביר. "צ'אטבוטים הם צעד ראשון הגיוני מאוד לנסות להוריד חלק מהעומס שמוטל על המגייסים".
זהו גם חלק מהרציונל מאחורי Sense HQ, שמספקת לחברות כמו Sears,Dell ו-Sony צ'אטבוטים מבוססי הודעות טקסט שעוזרים למגייסים שלהם לתמרן בין אלפי המועמדים. החברה טוענת שהיא כבר בשימוש על ידי כ-10 מיליון מועמדים לעבודה, והמייסד השותף אלכס רוזן אמר לפורבס שמשמעותם של מספרים כאלה הוא מאגר הרבה יותר גדול של מועמדים שבסוף יתקבלו.
"הסיבה שבנו צ'אטבוט מלכתחילה הייתה לעזור למגייסים לדבר עם מגוון רחב יותר של מועמדים ממה שהם יכולים לעשות בעצמם", אמר, והוסיף את ההסתייגות המחייבת: "אנחנו לא חושבים שזו הבינה המלאכותית שצריכה לקבל את החלטת הגיוס בעצמה. שם זה נהיה מסוכן. אנחנו פשוט לא חושבים שזה שם עדיין".
כמו מנגנון ההמלצות של נטפליקס
RecruitBot מביאה לידי ביטוי את יכולות הבינה המלאכותית בגיוס עובדים באמצעות למידת מכונה כדי לנפות מסד נתונים של 600 מיליון מועמדים לעבודה שמקורם בנתונים זמינים לציבור ובשוקי עבודה – כל זאת במטרה לעזור לחברות למצוא מועמדים לעבודה הדומים לעובדיהן הנוכחיים. "זה בערך דומה לשיטה שנטפליקס ממליצה על סרטים על סמך סרטים אחרים שאתה אוהב", אמר המנכ"ל והמייסד ג'רמי שיף לפורבס. אבל גם כאן הטיה היא דאגה ברורה; לשכור עוד מאותו דבר יש את המלכודות שלה. ב-2018, אמזון הסירה את השירות שבו השתמשה – מערכת מעקב אחר קורות חיים מבוססת למידה שהפלתה נשים בגלל שנתוני ההכשרה שלה הורכבו בעיקר מקורות חיים של גברים.
אורמילה ג'נרדן מנתחת מדיניות ב-Upturn, עמותה החוקרת כיצד טכנולוגיות משפיעות על הזדמנויות עבור אנשים, ציינה שחברות מסוימות פנו גם למבחני אישיות כדי לסווג מועמדים – וייתכן שהשאלות לסינון מועמדים אינן קשורות כלל לתפקיד. "אולי אפילו תידחו מהעבודה בגלל שאלות על הכרת תודה ואישיות", הם אמרו.
עבור ריק גנד, צייר וכותב במשרה חלקית, שאלון האישיות היה חלק מראיון צ'אטבוט שעשה עבור עבודה בשכר שעתי בסופרמרקט האוסטרלי Woolworths. הצ'אטבוט, שפותח על ידי חברת Sapia AI ביקש ממנו לספק תשובות של 50 עד 150 מילים לחמש שאלות ולאחר מכן ניתח את תשובותיו, בחיפוש אחר תכונות וכישורים התואמים את העדפות המגייסים. המסקנה שגנד "מתמודד היטב עם שינויים", ו"מרוכז יותר בתמונה הגדולה שגורמת לו להסתכל על פרטים", קידמה אותו לראיון בסיבוב הבא. בעוד ש-Sapia AI אינה דורשת מהמועמדים להגיב לשאלות במסגרת מגבלת זמן, המערכת מודדת את מבנה המשפט, הקריאות והמורכבות של המילים המשמשות בתגובות הטקסט.
גנד מתייחס לעניין כלא אנושי ומדאיג, הוא אמר לפורבס. "אני בדמוגרפיה שבה זה לא משפיע עליי, אבל אני מודאג מאנשים שהם מיעוטים, שמרכיבים בעיקר את שוק העבודה עם ההכנסה הנמוכה".
מועמד אחד לעבודה, שביקש לשמור על אנונימיות כדי שיוכל לדבר בחופשיות, מוצר בשיחה עם בוט לפחות תכונה אחת חיובית. כאשר הוא ממלא מאות בקשות עבודה, הוא לעיתים קרובות לא שומע מהמעסיקים בחזרה, אבל הבוט לפחות הבטיח לו שהבקשה שלו התקבלה. "זה הרגיש כמו חיזוק מורלי בכל כך הרבה מובנים", אמר. "אבל אם הייתי צריך לעשות את זה (להסתמס עם צ'אטבוט) בכל משרה שהגשתי אליה קורות חיים – זה יהיה קשה".