עוזרים קוליים ודברים חכמים
עוזרים קוליים כמו Amazon Alexa, Google Assistant, ו-Apple Siri הוא התקנים המשתמשים בבינה מלאכותית לשמוע, להבין, וליתן תגובה לפקודות קולהיות של משתמש. אלו נמצאים בבתים, במכוניות, ובמכשירים ניידים.
כאשר משתמש מדבר לעוזר קולי, ההקלטה מישדרת לשרת בענן, שם היא עברת עיבוד של בינה מלאכותית (NLP - Natural Language Processing). השרת אח״כ שולח את התוצאה חזרה למכשיר. זה כרוך בעיבוד של מידע אישי משמעותי.
- עוזרים קוליים משתמשים בעיבוד בענן
- הם שומעים בעיתות מסוימות וקולטים קול
- הם מעבדים דברים כמו מיקום, הרגלים, וחיפושים
- הם יכולים לנהל דברים חכמים בבית (תנורים, אורות, וכו״)
סוגיות פרטיות של עוזרים קוליים
הבעיה הראשית של עוזרים קוליים היא פרטיות. כל דיבור למכשיר מוקלט ומישדר לשרתים של החברה. זה אומר שחברה כמו Amazon או Google יודעת מה שמישהו מדבר בביתו. זה יכול לכלול ו-sensitive שיחות אישיות, שיחות רפואיות, או מידע פיננסי.
בנוסף, יש מקרים שעוזרים קוליים קולטים באופן שגוי - למשל, אם שומעים את המילה "Alexa" בשידור טלוויזיה, המכשיר עלול להתחיל להקשיב גם אם זה לא המטרה. זה נקרא "false positives" ויכול להוביל לקלטות לא מכוונות.
עוזרים קוליים שומעים בעיתות מסוימות וקולטים מידע אישי, מה שמעלה חששות פרטיות
חוקי פרטיות ודרישות הסכמה
בישראל, השימוש בעוזר קולי חייב עמידה בחוק הגנת הפרטיות. זה אומר שהמשתמש צריך לתן הסכמה בהדבקה לשימוש בקול ועיבוד של נתונים. בנוסף, חברה צריכה להיות שקופה בקשר למידע שאוספת, וצריכה להניח שימוש הוגן של הנתונים.
ה-GDPR באירופה קובע דרישות עוד יותר חמירות. עוזרים קוליים בחברות בעלות משתמשים אירופאיים צריכה להיות בעל: (1) הסכמה מפורשת, (2) מדיניות פרטיות ברורה, (3) יכולת למחוק הקלטות, (4) שיעבור של מידע בין מדינות היא מופקדת.
- הסכמה מפורשת לשימוש קול
- מדיניות פרטיות ברורה
- זכות למחוק הקלטות
- הודעות על שימוש נתונים
קראו גם:
בעיות אבטחה ודליפות של הקלטות
עוזרים קוליים אחזקו רבות על דליפות של הקלטות. במקרים מסוימים, עובדים של Amazon או Google השמיעו הקלטות פרטיות של משתמשים (כמו שיחות על בריאות או קנינים אישיים) כחלק של תוכנית שיפור הבינה מלאכותית.
בנוסף, חוקרי אבטחה מצאו דרכים להתחדד בעוזרים קוליים שלא בהסכמה. לדוגמה, יש אפשרות לחדור למכשיר דרך רשת מבלי השתמש בכמו הכנה, או לעשות הוקמה של הקול של מישהו אחר כדי לתן פקודות.
קיימים סיכונים אבטחה משמעותיים עם עוזרים קוליים, כולל דליפות של הקלטות ופריצות
- עובדים משמיעים הקלטות פרטיות
- דליפות של הקלטות לציבור
- פריצות של אבטחה
- זיוף קול (voice spoofing)
שימוש בנתונים לתיאור משא ומתן ופרסום
חברות כמו Amazon ו-Google משתמשות בנתונים מעוזרים קוליים לשיפור השירות שלהם וגם למטרות פרסום. לדוגמה, Amazon יכול לשתמש בנתונים על מה שמישהו שואל, כדי להמל יץ לו על מוצרים בחנות שלה.
זה יכול להוביל לסוגיות אתיות משמעותיות. אם החברה משתמשת בנתונים קוליים לפרסום מעוד מטרות לא נאמרות בבהירות, זה עלול להיות הפרה של חוק הגנת הצרכן או של חוק פרטיות.
- שימוש בנתונים לפרסום ממוקד
- בניית פרופיל צרכנים
- מכירת נתונים לצדדים שלישיים
- שימוש בנתונים לשיפור בינה מלאכותית
זכויות משתמשים וזכות השכחה
משתמשים בעוזרים קוליים צריכים להיות בעל זכויות מסוימות. אלו כוללות: (1) זכות לשמוע את הקלטות שלהם, (2) זכות למחוק הקלטות, (3) זכות להתפטר מ-sharing נתונים לשיפור בינה מלאכותית, (4) זכות להגביל מישה מידע.
אם משתמש מבקש למחוק הקלטות, חברה צריכה להנמוך את הבקשה בתוך תקופה סבירה (בדרך כלל 30 ימים). עם זאת, לחברות יש חריגים - הם יכולים להשמור הקלטות אם זה נדרש לתכלהיות משפטיות או לחקירה של הונאה.
משתמשים בעוזרים קוליים יש זכות למחוק הקלטות ול של ולשימוש בנתונים
רגולציה עתידית ודרישות חדשות
ממשלות רבות, כולל בישראל ובאירופה, מתחילות לרגול את עוזרים קוליים ו-AI בדרכים חדשות. לדוגמה, ממשלת בריטניה הציעה דרישות שעוזרים קוליים צריכה להיות בעל ודאות של ״מתג off" פיזי, כדי אפשר למשתמש להעיר את ההקשבה.
בנוסף, יש דיונים על צורך בסימון ברור של הקלטות מלאכותיות, דרישות שקיפויות על אלגוריתמים, וזכויות משתמשים חדשות. כל אלו יכולות להשתנות את הדרך שחברות יכולות להשתמש בעוזרים קוליים בעתיד.
- דרישות של מתג off פיזי
- סימון של הקלטות מלאכותיות
- דרישות שקיפויות על אלגוריתמים
- זכויות משתמשים מרחיבות