הדרכה הורית: "בינה מלאכותית" שימשה לשיעור שמרטפים על סמך ההיסטוריה החברתית שלהם

תוכן:

{title}

כאשר ג'סי בטגליה התחילה לחפש בייביסיטר חדש עבור בנה בן השנה, היא רצתה מידע רב יותר ממה שהיא יכולה לקבל מתוך בדיקה רקע פלילי, הערות האב ראיון פנים אל פנים.

אז היא פנתה לפרדיקטים, שירות מקוון המשתמש ב"אינטליגנציה מלאכותית מתקדמת "כדי להעריך את אישיותו של הבייביסיטר, וכיוונה את הסורק שלה לאלפי מועמדים של פייסבוק, טוויטר ואינסטגרם.

  • תוהה מדוע מחסור בשינה מרגיש כמו עינויים? זה בגלל זה
  • מציאות "לילה מאוחרת": איך לגרום לזה לקרות
  • המערכת הציעה "דירוג סיכון" אוטומטי של מועמדת בת 24, ואמרה כי היא נמצאת בסיכון נמוך מאוד להתעללות בסמים. אבל זה נתן הערכה קצת יותר סיכון - שניים מתוך חמישה - על הצקה, הטרדה, להיות "מכובד" ויש "גישה רעה".

    המערכת לא הסבירה מדוע קיבלה את ההחלטה. אבל בטאגליה, שהאמין שהמשגיח היה אמין, חש לפתע ספקות של ספק.

    "מדיה חברתית מראה דמות של אדם", אמר בטאגליה, בן 29, שגר ליד לוס אנג'לס. "אז למה היא נכנסה לשתיים ולא אחת?"

    פרדיקטים מציעה להורים את אותו מחזה שבו עשרות חברות טכנולוגיה אחרות מוכרות למעסיקים ברחבי העולם: מערכות בינה מלאכותית המנתחת את הדיבור, הבעות הפנים וההיסטוריה המקוונת עם הבטחות לחשוף את ההיבטים הנסתרים של חייהם הפרטיים.

    הטכנולוגיה היא עיצוב מחדש של כמה חברות גישה גיוס, שכירת וביקורת עובדים, המציע מעסיקים מראה ללא תחרות על מועמדים לעבודה באמצעות גל חדש של הערכה פסיכולוגית פולשני ומעקב.

    חברת הפאמאים טק אומרת כי היא משתמשת ב- AI באמצעי התקשורת החברתיים של עובדי המשטרה על "התנהגות רעילה" ומזהירה את הבוסים שלהם. ואת חברת גיוס הטכנולוגיה HireVue, אשר עובד עם חברות כגון Geico, הילטון יוניליוור, מציעה מערכת באופן אוטומטי מנתח את הטון של המבקשים, בחירת מילה ותנועות פנים במהלך ראיונות וידאו לחזות את הכישורים שלהם והתנהגות בעבודה. (המועמדים מעודדים לחייך לקבלת התוצאות הטובות ביותר).

    אבל המבקרים טוענים כי פרדיקטים ומערכות דומות מציגים את הסכנות שלהם על ידי ביצוע החלטות אוטומטיות ואולי משנות חיים כמעט ללא בדיקה.

    המערכות תלויות באלגוריתמים של קופסאות שחורות המעניקות מעט פרטים על האופן שבו הן מקטינות את המורכבות של החיים הפנימיים של האדם לחישוב של מידות טובות או של נזק. וגם כאשר הטכנולוגיה של פרדיקטים משפיעה על חשיבת ההורים, היא נותרה בלתי מוכחת לחלוטין, בלתי מוסברת במידה רבה ופגיעה בהטיות שקטות על איך שמרטפית צריכה לשתף, להסתכל ולדבר.

    יש "מהומה מטורפת לתפוס את הכוח של AI לעשות כל מיני החלטות בלי לוודא שהיא אחראית לבני אדם", אמר ג'ף צ'סטר, מנכ"ל המרכז לדמוקרטיה דיגיטלית, קבוצת תמיכה טכנית. "זה כאילו אנשים שיכורים את ה- Kool-Aid הדיגיטלי וחושבים שזו דרך נכונה לשלוט על חיינו".

    הסריקות של Predictim מנתחות את כל ההיסטוריה של המדיה החברתית של בייביסיטר, אשר, עבור רבים מן הצעירים הצעירים ביותר, יכול לכסות את רוב חייהם. ואת sitters הם אמרו שהם יהיו בכל חסרון גדול עבור עבודות תחרותי אם הם מסרבים.

    מנכ"ל פרדקטים, סאל פרסה, אמר כי החברה, שהושקה בחודש שעבר במסגרת חממת הטכנולוגיה SkyDeck של אוניברסיטת קליפורניה בברקלי, לוקחת שאלות אתיות לגבי השימוש שלה בטכנולוגיה ברצינות. הורים, הוא אמר, צריכים לראות את הרייטינג כבן לוויה אשר "עשוי או לא יכול לשקף את התכונות האמיתיות של הסיטר".

    אבל הסכנה של העסקת בייביסיטר בעייתית או אלימה, הוסיף, עושה את AI כלי הכרחי עבור כל הורה בתקווה לשמור על הילד שלו או שלה.

    "אם אתה מחפש בייביסיטר פוגעני ב- Google, תראה מאות תוצאות כרגע", הוא אומר. "יש שם אנשים שיש להם מחלת נפש או פשוט נולדים רע, המטרה שלנו היא לעשות כל שביכולתנו כדי לעצור אותם".

    סריקה Predictim מתחיל ב $ 24.99 ודורש שם בייביסיטר וכתובת הדוא"ל שלה ואת הסכמתה לחלוק גישה רחבה חשבונות מדיה חברתית שלה. הבייביסיטר יכולה ליפול, אבל להורה נשלחת הודעה על סירובה, ובדוא"ל שמורה לבייביסיטר "ההורה המעניין לא יוכל להעסיק אותך עד שתשלים את הבקשה".

    המנהלים של Predictim אומרים שהם משתמשים באלגוריתמים לעיבוד שפה ותוכנת זיהוי תמונות הידועה בשם "ראיית מחשב", כדי להעריך את הפרסומים של פייסבוק, טוויטר ואינסטגרם לרמזים על החיים הלא-מקוונים שלהם. ההורה מסופק באופן בלעדי ואינו צריך לספר לשומר את התוצאות.

    הורים יכולים, מן הסתם, להסתכל על חשבונות המדיה החברתית הציבורית שלהם. אבל הדוחות הממוחשבים מבטיחים בדיקה מעמיקה של שנים של פעילות מקוונת, מבושלים עד ספרה אחת: פתרון פשוט משכר למשימה לא מעשית.

    דירוג הסיכון מחולק למספר קטגוריות, כולל תוכן מפורש ושימוש בסמים. הסטארט-אפ גם פירסם כי המערכת שלו יכולה להעריך שמרטפים על תכונות אישיות אחרות, כגון נימוס, יכולת לעבוד עם אחרים "חיובי".

    החברה מקווה לקרב את המיליארדי דולרים "הורות מיקור חוץ" בתעשייה והחלה לפרסם באמצעות חסויות בתשלום של הורות ו "מומיה" בלוגים. השיווק של החברה מתמקד מאוד ביכולת שלה לחשוף סודות מוסתרים ולמנוע "סיוט של כל הורה", מצטט תיקים פליליים כולל זה של קנטקי בייביסיטר טעונה מוקדם יותר השנה עם פגיעה קשה ילדה בת שמונה חודשים.

    "אם הוריה של הילדה הקטנה שנפצעו בבייביסיטר הזה היו מסוגלים להשתמש בפרדיקטים כחלק מתהליך הבדיקות שלהם", נכתב במסמך שיווקי של החברה, "הם לא היו משאירים אותה לבד עם הילד היקר שלהם".

    אבל מומחי טכנולוגיה אומרים שהמערכת מעלה דגלים אדומים משלה, כולל דאגות שהיא חוששת בפחדים של ההורים למכור סצינות אישיות של דיוק שלא נבדק.

    הם גם שואלים את האופן שבו המערכת מאומנת וכיצד הם פגיעים על מנת לא להבין את המשמעויות המטושטשות של השימוש החברתי החברתי. עבור כל אבל את הסיכונים בסיכון הגבוה ביותר, ההורים מקבלים רק הצעה של התנהגות מפוקפקת ולא ביטויים ספציפיים, קישורים או פרטים כדי להעריך בכוחות עצמם.

    כאשר סריקה אחת של בייביסיטר היתה מסומנת על התנהגות אפשרית של בריונות, האמא המטופלת שביקשה זאת אמרה שהיא לא יכלה לדעת אם התוכנה הבחינה בסרטון ישן, בשיר לירי או בביטוי אחר בניגוד לשפה בריונות בפועל.

    אבל פרדיקטים עדיין אומרת שהיא מתכוננת להרחבה ארצית. מנהלים בסיסטרסיטי, שוק בייביסיטר מקוון שביקרו בו מיליוני הורים, אמרו כי הם משיקים תוכנית פיילוט בתחילת השנה הבאה שתתקפל בדירוגים האוטומטיים של פרדיקטים למערך הנוכחי של סיטרי הקרנות ובדיקות רקע.

    "מציאת שמרטפית יכולה לבוא עם הרבה אי-ודאות", אמרה סנדרה דאינורה, ראש המוצר של סיטרסיטי, שמאמין כי כלים כאלה יהפכו במהרה ל"מטבע סטנדרטי "למציאת מטפלים מקוונים. "ההורים מחפשים תמיד את הפתרון הטוב ביותר, את רוב המחקרים, את העובדות הטובות ביותר".

    הוושינגטון פוסט

    למאמר הקודם למאמר הבא

    המלצות עבור Moms.‼