Nick Bostrom (în suedeză Niklas Boström; n.
Nick Bostrom | |
Date personale | |
---|---|
Nume la naștere | Niklas Boström |
Născut | (51 de ani) Helsingborg, Suedia |
Cetățenie | Suedia |
Ocupație | filozof cadru didactic universitar[*] |
Limbi vorbite | limba engleză limba suedeză |
Activitate | |
Alma mater | Școala de Economie și Științe Politice din Londra King's College Universitatea din Göteborg[*] |
Organizație | Universitatea Oxford |
Prezență online | |
Modifică date / text |
, Helsingborg, Suedia) este un filosof suedez de la Universitatea din Oxford, cunoscut pentru lucrările sale despre riscurile existențiale, principiul antropic, etica îmbunătățirii umane, riscurile superinteligenței și testul inversării. În 2011 a fondat Programul Oxford Martin privind impactul tehnologiei viitoare și este directorul fondator al Institutului Viitorul Umanității (Future of Humanity Institute) de la Universitatea Oxford. În 2009 și 2015, el a fost inclus în lista Top 100 de gânditori a publicației americane Foreign Policy.
Bostrom este autorul a peste 200 de publicații și a scris două cărți și a coeditat alte două. Cele două cărți pe care le-a scris sunt Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002) și Superinteligența. Căi, pericole, strategii (2014). A doua carte a fost un bestseller New York Times, a fost recomandată de Elon Musk și Bill Gates, printre alții, și a ajutat la popularizarea termenului de „superinteligență”.
Bostrom consideră că superinteligența, pe care el o definește drept „orice intelect care depășește cu mult performanța cognitivă a oamenilor în practic toate domeniile de interes”, este un rezultat posibil al progreselor înregistrate în inteligența artificială. El consideră ascensiunea superinteligenței ca fiind potențial extrem de periculoasă pentru oameni, dar, totuși, respinge ideea că oamenii ar fi neputincioși în oprirea efectelor negative ale acesteia.[sursa nu confirmă] În 2017 a cosemnat o listă de 23 de principii pe care ar trebui să le urmeze toți dezvoltatorii de inteligență artificială.
În cartea sa Superintelligence: Paths, Dangers, Strategies, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scop, o IA suficient de inteligentă va prezenta un comportament convergent(d), respectiv va acumula resurse și se va proteja de la oprire. Dacă scopurile IA nu le reflectă pe cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, totul pentru a-și atinge mai bine scopul.
This article uses material from the Wikipedia Română article Nick Bostrom, which is released under the Creative Commons Attribution-ShareAlike 3.0 license ("CC BY-SA 3.0"); additional terms may apply (view authors). Conținutul este disponibil sub CC BY-SA 4.0, exceptând cazurile în care se specifică altfel. Images, videos and audio are available under their respective licenses.
®Wikipedia is a registered trademark of the Wiki Foundation, Inc. Wiki Română (DUHOCTRUNGQUOC.VN) is an independent company and has no affiliation with Wiki Foundation.