אליעזר יודקובסקי

מתוך המכלול, האנציקלופדיה היהודית
קפיצה לניווט קפיצה לחיפוש

שגיאת לואה ביחידה יחידה:תבנית_מידע בשורה 261: תבנית אישיות ריקה.

אליעזר שלמה יודקובסקי (באנגלית: Eliezer Shlomo Yudkowsky, נולד ב-11 בספטמבר 1979) הוא חוקר בינה מלאכותית, סופר והוגה דעות יהודי אמריקאי, הידוע בעיקר בשל הפצת הרעיון של בינה מלאכותית ידידותית. הוא מייסד ועמית מחקר במכון לחקר הבינה המלאכותית (MIRI), מכון מחקר פרטי ללא מטרות רווח השוכן בברקלי, קליפורניה. אין לו השכלה פורמלית, שכן מעולם לא למד בתיכון או במכללה[1]. עבודתו על האפשרות של סכנה קיומית לאנושות מפיצוץ אינטליגנציה השפיעה על ספרו של הפילוסוף ניק בוסטרוםSuperintelligence: Paths, Dangers, Strategies.

כתיבה רציונלית

בין 2006 ל־2009 יודקובסקי ורובין הנסון היו הכותבים העיקריים בבלוג Overcoming Bias‏[2], העוסק במדעי הקוגניציה והחברה אשר פעל בחסות המכון לעתיד האנושות. בפברואר 2009 ייסד יודקובסקי את הבלוג LessWrong‏[3][4], "בלוג קהילתי המוקדש לזיקוק האמנות של החשיבה הרציונלית".

יודקובסקי כתב גם מספר סיפורי מדע בדיוני.[5] המצליח מבניהם, הפאנפיק הארי פוטר והשיטה הרציונלית משתמש בחלקים מעלילת ספרי הארי פוטר של ג'יי קיי רולינג, ומשתמש בהם להמחשת עקרונות הרציונליות וצורת חשיבה מדעית.[6][7][8][9][10][11] הניו יורקר תיאר את ״הארי פוטר והשיטה רציונלית״ בתור כתיבה מחדשת של האפוס של רולינג "בניסיון להסביר את הקסם של הארי באמצעות השיטה המדעית".[12]

מעל 300 פוסטים מאת יודקובסקי שפורסמו בבמות שונות נאספו על ידי המכון למחקר בינה מלאכותית ב־2015 וראו אור בתור ספר אלקטרוני שכותרתו ״רציונליות: מבינה מלאכותית ועד זומבים״ (באנגלית: Rationality: from AI to Zombies.‏[13] ספרו האחרון נקרא Inadequate Equilibria: Where and How Civilizations Get Stuck .[14]

השקפות אישיות

יודקובסקי מזדהה בתור אתאיסט[15] וליברטריאן.[16] הוא תומך בקריוניקה וחתום על הצהרת מכון הקריוניקה.[17]

משפחתו

אחיו הצעיר, יהודה נתן יודקובסקי, מת בשנת 2004 בהיותו בן תשע עשרה.[18]

יודקובסקי היה בזוגיות עם בְּרִיֵין יודקובסקי מבית סטרול. הם נישאו בשנת 2013 והתגרשו ב־2018.[19].

פרסומים אקדמיים

  • Yudkowsky, Eliezer (2007). Levels of Organization in General Intelligence (PDF). Artificial General Intelligence. Berlin: Springer.
  • Yudkowsky, Eliezer (2008). "Cognitive Biases Potentially Affecting Judgement of Global Risks" (PDF). In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
  • Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). In Bostrom, Nick; Ćirković, Milan (eds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504.
  • Yudkowsky, Eliezer (2011). Complex Value Systems in Friendly AI (PDF). Artificial General Intelligence: 4th International Conference, AGI 2011, Mountain View, CA, USA, August 3–6, 2011. Berlin: Springer.
  • Yudkowsky, Eliezer (2012). "Friendly Artificial Intelligence". In Eden, Ammon; Moor, James; Søraker, John; et al. (eds.). Singularity Hypotheses: A Scientific and Philosophical Assessment. Berlin: Springer. ISBN 978-3-642-32559-5.
  • Bostrom, Nick; Yudkowsky, Eliezer (2014). "The Ethics of Artificial Intelligence" (PDF). In Frankish, Keith; Ramsey, William (eds.). The Cambridge Handbook of Artificial Intelligence. New York: Cambridge University Press. ISBN 978-0-521-87142-6.
  • LaVictoire, Patrick; Fallenstein, Benja; Yudkowsky, Eliezer; Bárász, Mihály; Christiano, Paul; Herreshoff, Marcello (2014). Program Equilibrium in the Prisoner's Dilemma via Löb's Theorem. Multiagent Interaction without Prior Coordination: Papers from the AAAI-14 Workshop. AAAI Publications.
  • Soares, Nate; Fallenstein, Benja; Yudkowsky, Eliezer (2015). Corrigibility. AAAI Workshops: Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence, Austin, TX, January 25–26, 2015. AAAI Publications.

קישורים חיצוניים

ויקישיתוף מדיה וקבצים בנושא אליעזר יודקובסקי בוויקישיתוף

הערות שוליים

  1. ^ Saperstein, Gregory (9 באוגוסט 2012). "5 Minutes With a Visionary: Eliezer Yudkowsky". {{cite web}}: (עזרה)
  2. ^ "Overcoming Bias: About". Robin Hanson. נבדק ב-1 בפברואר 2012. {{cite web}}: (עזרה)
  3. ^ "Where did Less Wrong come from? (LessWrong FAQ)". נבדק ב-11 בספטמבר 2014. {{cite web}}: (עזרה)
  4. ^ Miller, James (28 ביולי 2011). "You Can Learn How To Become More Rational". Business Insider. נבדק ב-25 במרץ 2014. {{cite web}}: (עזרה)
  5. ^ Eliezer S. Yudkowsky. "Fiction". Yudkowsky. נבדק ב-14 בספטמבר 2015. {{cite web}}: (עזרה)
  6. ^ David Brin (21 ביוני 2010). "CONTRARY BRIN: A secret of college life... plus controversies and science!". Davidbrin.blogspot.com. נבדק ב-31 באוגוסט 2012. {{cite web}}: (עזרה)"'Harry Potter' and the Key to Immortality", Daniel Snyder, en:The Atlantic
  7. ^ Authors (2 באפריל 2012). "Rachel Aaron interview (April 2012)". Fantasybookreview.co.uk. נבדק ב-31 באוגוסט 2012. {{cite web}}: (עזרה)
  8. ^ "Civilian Reader: An Interview with Rachel Aaron". Civilian-reader.blogspot.com. 4 במאי 2011. נבדק ב-31 באוגוסט 2012. {{cite web}}: (עזרה)
  9. ^ Hanson, Robin (31 באוקטובר 2010). "Hyper-Rational Harry". Overcoming Bias. נבדק ב-31 באוגוסט 2012. {{cite web}}: (עזרה)
  10. ^ Swartz, Aaron. "The 2011 Review of Books (Aaron Swartz's Raw Thought)". archive.org. אורכב מ-המקור ב-16 במרץ 2013. נבדק ב-4 באוקטובר 2013. {{cite web}}: (עזרה)
  11. ^ "Harry Potter and the Methods of Rationality". fanfiction.net. 28 בפברואר 2010. נבדק ב-29 בדצמבר 2014. {{cite web}}: (עזרה)
  12. ^ Packer, George (2011). "No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire". The New Yorker: 54. נבדק ב-12 באוקטובר 2015. {{cite journal}}: (עזרה)
  13. ^ Rationality: From AI to Zombies, MIRI, 2015-03-12
  14. ^ https://equilibriabook.com, MIRI, 2017-10-26
  15. ^ "The Correct Contrarian Cluster - Less Wrong". lesswrong.com.
  16. ^ 7, Eliezer Yudkowsky Response Essays September; 2011. "Is That Your True Rejection?". Cato Unbound.{{cite web}}: תחזוקה - ציטוט: numeric names: authors list (link)
  17. ^ You Only Live Twice - Less Wrong
  18. ^ Yudkowsky - Yehuda Yudkowsky, yudkowsky.net
  19. ^ Eliezer S. Yudkowsky, yudkowsky.net
Logo hamichlol 3.png
הערך באדיבות ויקיפדיה העברית, קרדיט,
רשימת התורמים
רישיון cc-by-sa 3.0