Nick Bostrom
Nick Bostrom | |
Date personale | |
---|---|
Nume la naștere | Niklas Boström |
Născut | (51 de ani)[1] Helsingborg, Suedia |
Cetățenie | Suedia |
Ocupație | filozof cadru didactic universitar[*] |
Limbi vorbite | limba engleză[2][3] limba suedeză[3] |
Activitate | |
Alma mater | Școala de Economie și Științe Politice din Londra King's College Universitatea din Göteborg[*] |
Organizație | Universitatea Oxford |
Prezență online | |
Modifică date / text |
Nick Bostrom (în suedeză Niklas Boström; n. , Helsingborg, Suedia) este un filosof suedez de la Universitatea din Oxford,[4] cunoscut pentru lucrările sale despre riscurile existențiale, principiul antropic, etica îmbunătățirii umane, riscurile superinteligenței și testul inversării. În 2011 a fondat Programul Oxford Martin privind impactul tehnologiei viitoare[5] și este directorul fondator al Institutului Viitorul Umanității (Future of Humanity Institute) de la Universitatea Oxford.[6] În 2009 și 2015, el a fost inclus în lista Top 100 de gânditori a publicației americane Foreign Policy.[7][8]
Bostrom este autorul a peste 200 de publicații[9] și a scris două cărți și a coeditat alte două. Cele două cărți pe care le-a scris sunt Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002)[10] și Superinteligența. Căi, pericole, strategii (2014).[11] A doua carte a fost un bestseller New York Times, a fost recomandată de Elon Musk și Bill Gates, printre alții, și a ajutat la popularizarea termenului de „superinteligență”.
Bostrom consideră că superinteligența, pe care el o definește drept „orice intelect care depășește cu mult performanța cognitivă a oamenilor în practic toate domeniile de interes”, este un rezultat posibil al progreselor înregistrate în inteligența artificială. El consideră ascensiunea superinteligenței ca fiind potențial extrem de periculoasă pentru oameni, dar, totuși, respinge ideea că oamenii ar fi neputincioși în oprirea efectelor negative ale acesteia.[12][13][sursa nu confirmă] În 2017 a cosemnat o listă de 23 de principii pe care ar trebui să le urmeze toți dezvoltatorii de inteligență artificială.[14]
Lucrări scrise
modificare- 2002 – Anthropic Bias: Observation Selection Effects in Science and Philosophy, ISBN: 0-415-93858-9
- 2008 – Global Catastrophic Risks, editori Bostrom și Milan M. Ćirković, ISBN: 978-0-19-857050-9
- 2009 – Human Enhancement, editori Bostrom și Julian Săvulescu, ISBN: 0-19-929972-2
- 2014 – Superintelligence: Paths, Dangers, Strategies, ISBN: 978-0-19-967811-2
În cartea sa Superintelligence: Paths, Dangers, Strategies, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scop, o IA suficient de inteligentă va prezenta un comportament convergent(d), respectiv va acumula resurse și se va proteja de la oprire. Dacă scopurile IA nu le reflectă pe cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, totul pentru a-și atinge mai bine scopul.
Note
modificare- ^ Who's who
- ^ IdRef, accesat în
- ^ a b CONOR.SI[*] Verificați valoarea
|titlelink=
(ajutor) - ^ „nickbostrom.com”. Nickbostrom.com. Arhivat din original la . Accesat în .
- ^ „Professor Nick Bostrom : People”. Oxford Martin School. Arhivat din original la . Accesat în .
- ^ „Future of Humanity Institute – University of Oxford”. Fhi.ox.ac.uk. Accesat în .
- ^ Frankel, Rebecca. „The FP Top 100 Global Thinkers”. Foreign Policy. Accesat în .
- ^ „Nick Bostrom: For sounding the alarm on our future computer overlords”. foreignpolicy.com. Foreign Policy magazine. Accesat în .
- ^ Eroare la citare: Etichetă
<ref>
invalidă; niciun text nu a fost furnizat pentru referințele numiteft-control
- ^ „Nick Bostrom on artificial intelligence”. Oxford University Press. . Accesat în .
- ^ Times, The New York (). „Best Selling Science Books”. The New York Times. Accesat în .
- ^ „Bill Gates Is Worried About the Rise of the Machines”. The Fiscal Times. Accesat în .
- ^ Bratton, Benjamin H. (). „Outing A.I.: Beyond the Turing Test”. The New York Times. Accesat în .
- ^ Eroare la citare: Etichetă
<ref>
invalidă; niciun text nu a fost furnizat pentru referințele numitehassabis worries
Legături externe
modificare- Nick Bostrom home page
- Superintelligence: Paths, Dangers, Strategies
- Bostrom's Anthropic Principle website, containing information about the anthropic principle and the Doomsday argument.
- Online copy of book, "Anthropic Bias: Observation Selection Effects in Science and Philosophy" (HTML, PDF)
- Bostrom's Simulation Argument website
- Bostrom's Existential Risk website
- Nick Bostrom la Internet Movie Database
- Format:Triangulation
- Format:TED speaker
- The 10 gatekeepers of humanity against the risks of AI Arhivat în , la Wayback Machine., Hot Topics 2015
- The A.I. anxiety The Washington Post, December 27, 2015.
Vezi și
modificare- Inteligență artificială
- Riscurile existențiale
- Paradoxul lui Fermi
- Marele filtru
- Ipoteza simulării
- Realitate simulată