Eliezer Shlomo Yudkowsky (n.
Eliezer Yudkowsky | |
Date personale | |
---|---|
Nume la naștere | Eliezer Shlomo Yudkowsky |
Născut | (44 de ani) Chicago, Illinois, SUA |
Cetățenie | Statele Unite ale Americii |
Religie | ateism |
Ocupație | cercetător al inteligenței artificiale[*] blogger scriitor informatician |
Limbi vorbite | limba engleză |
Activitate | |
Domeniu | inteligență artificială inteligență artificială prietenoasă[*] teoria deciziei[*] Transumanism știința informației[*] |
Instituție | Machine Intelligence Research Institute[*] |
Cunoscut pentru | Less Wrong[*] Harry Potter and the Methods of Rationality[*] |
Prezență online | |
Modifică date / text |
, Chicago, Illinois, SUA) este un cercetător și scriitor american în domeniul inteligenței artificiale (IA) cunoscut mai ales pentru popularizarea ideii de inteligență artificială prietenoasă. Este cofondator și cercetător al Machine Intelligence Research Institute (MIRI), un organism de cercetare privat nonprofit cu sediul în Berkeley, California. Munca sa asupra perspectivei unei explozii de inteligență a fost o influență de cartea lui Nick Bostrom, Superinteligența. Căi, pericole, strategii. Un autodidact, Yudkowsky nu a studiat la liceu sau facultate.
În scenariul exploziei de inteligență propus de I. J. Good, sistemele de inteligență artificială auto-îmbunătățite recursiv trec rapid de la inteligența generală subumană la superinteligentă. Cartea lui Nick Bostrom din 2014 Superinteligența. Căi, pericole, strategii prezintă argumentul lui Good în detaliu, citând în același timp scrierile lui Yudkowsky cu privire la riscul ca antropomorfizarea sistemelor avansate de IA să determine oamenii să înțeleagă greșit natura unei explozii de informații. „IA ar putea face un salt aparent puternic în inteligență doar ca rezultat al antropomorfismului, al tendinței umane de a gândi în termeni ca „idiotul satului” și „Einstein” la capetele extreme ale scalei inteligenței, în loc de puncte aproape imperceptibile pe scara minților -în general."
Între 2006 și 2009, Yudkowsky și Robin Hanson au fost principalii contribuabili ai Overcoming Bias, un blog de științe cognitive și sociale sponsorizat de Institutul Future of Humanity al Universității Oxford. În februarie 2009, Yudkowsky a fondat LessWrong, un „blog dedicat rafinării artei raționalității umane”. Overcoming Bias a rămas de atunci blogul personal al lui Hanson.
Peste 300 de postări pe blog ale lui Yudkowsky despre filozofie și știință (scrise inițial pe LessWrong și Overcoming Bias) au fost lansate ca o carte electronică intitulată Rationality: From AI to Zombies de către Machine Intelligence Research Institute (MIRI) în 2015. MIRI a publicat, de asemenea, Inadequate Equilibria, cartea electronică a lui Yudkowsky din 2017 despre subiectul ineficiențelor societale.
Yudkowsky a scris, de asemenea, mai multe opere de ficțiune. Romanul său de fan fiction, Harry Potter and the Methods of Rationality (Harry Potter și metodele raționalității), folosește elemente ale intrigii din seria Harry Potter a lui J. K. Rowling pentru a ilustra subiecte din știință. The New Yorker a descris Harry Potter și metodele raționalității ca pe o reluare a originalului lui Rowling „în încercarea de a explica vrăjitoria lui Harry prin metoda științifică”.
This article uses material from the Wikipedia Română article Eliezer Yudkowsky, which is released under the Creative Commons Attribution-ShareAlike 3.0 license ("CC BY-SA 3.0"); additional terms may apply (view authors). Conținutul este disponibil sub CC BY-SA 4.0, exceptând cazurile în care se specifică altfel. Images, videos and audio are available under their respective licenses.
®Wikipedia is a registered trademark of the Wiki Foundation, Inc. Wiki Română (DUHOCTRUNGQUOC.VN) is an independent company and has no affiliation with Wiki Foundation.