מומחים: בינה מלאכותית מסוכנת כמו מלחמה גרעינית או מגיפות

מומחי בינה מלאכותית ערערו במשפט אחד בלבד כדי להתייחס ברצינות לסכנת הבינה המלאכותית לאנושות.

הדבר הכי חשוב בקצרה

  • מומחי AI פרסמו הצהרה המורכבת ממשפט אחד בלבד.

  • בו הם קוראים להתייחס ברצינות לסיכונים של בינה מלאכותית.

  • מייסד ChatGPT, סם אלטמן, גם הוא בין החותמים.

זה רק שישה חודשיםChatGPTנגיש לציבור, אך לאחר זמן קצר בלבד הצ'טבוט המבוסס על בינה מלאכותית שינה את העולם. מאז שהתברר למה בינה מלאכותית מסוגלת, הטכנולוגיה נתונה במחלוקת חריפה. הפוקוס הוא על הסיכונים.

מומחי בינה מלאכותית נבהלו: טכנולוגיה עלולה להוות סכנה גדולה לאנושות

כעת קראו מומחים מובילים בתחום הבינה המלאכותית לקחת את הסיכונים ברצינות. יתרה מכך, הם אפילו רואים בטכנולוגיה סכנה פוטנציאלית לאנושות. "הפחתת הסיכון להשמדת בינה מלאכותית צריכה להיות בראש סדר העדיפויות העולמי לצד סיכונים אחרים בממדים חברתיים, כמו מגפות ומלחמה גרעינית." המומחים כתבו רק את המשפט האחד הזה בהצהרה שפורסמה ביום שלישי (30 במאי). המשקיע וורן באפט אמר בעבר הערות דומותהתפתחויות בתחום הבינה המלאכותית בהשוואה לפצצת האטום.

העמותה שבאתר שלה הופיע הטקסט מזכירה את השימוש בו בלחימה, למשל באוויר או באמצעות פיתוח נשק כימי חדש, כסכנות אפשריות של בינה מלאכותית. המרכז לבטיחות בינה מלאכותית, שבסיסה בסן פרנסיסקו, מזהיר גם מפני התפשטות מידע מוטעה באמצעות טכנולוגיה ועתיד שבו האנושות עלולה להיות תלויה לחלוטין במכונות.

גם מפתח ChatGPT Altman מדגיש את הסכנות של AI

בנוסף לממציא ChatGPT סם אלטמן, החותמים על ההצהרה החדשה כוללים את דמיס חסאביס, שהוא ראש החברה האחות של גוגל, DeepMind, המתמחה בבינה מלאכותית, וג'פרי הינטון, מהחוקרים המובילים בתחום.

לפני מספר שבועות היה בארגון אחר אחד, בין היתראילון מאסקמכתב פתוח חתום שפורסם בוהפסקה של שישה חודשים בפיתוח הבינה המלאכותיתהוצע. מטרת הפסק זמן צריכה להיות למצוא גישות רגולטוריות לטכנולוגיה. מאוחר יותר זה נודעכי מאסק הקים לאחרונה חברת AI משלו.

  • מקורות בשימוש:

  • סוכנות הידיעות dpa

עוד חדשות וסרטונים

Related Posts