Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

Nick Bostrom

filosof suedez
Nick Bostrom
Date personale
Nume la naștereNiklas Boström Modificați la Wikidata
Născut (51 de ani)[1] Modificați la Wikidata
Helsingborg, Suedia Modificați la Wikidata
Cetățenie Suedia Modificați la Wikidata
Ocupațiefilozof
cadru didactic universitar[*] Modificați la Wikidata
Limbi vorbitelimba engleză[2][3]
limba suedeză[3] Modificați la Wikidata
Activitate
Alma materȘcoala de Economie și Științe Politice din Londra
King's College
Universitatea din Göteborg[*]  Modificați la Wikidata
OrganizațieUniversitatea Oxford  Modificați la Wikidata
Prezență online

Nick Bostrom (în suedeză Niklas Boström; n. , Helsingborg, Suedia) este un filosof suedez de la Universitatea din Oxford,[4] cunoscut pentru lucrările sale despre riscurile existențiale, principiul antropic, etica îmbunătățirii umane, riscurile superinteligenței și testul inversării. În 2011 a fondat Programul Oxford Martin privind impactul tehnologiei viitoare[5] și este directorul fondator al Institutului Viitorul Umanității (Future of Humanity Institute) de la Universitatea Oxford.[6] În 2009 și 2015, el a fost inclus în lista Top 100 de gânditori a publicației americane Foreign Policy.[7][8]

Bostrom este autorul a peste 200 de publicații[9] și a scris două cărți și a coeditat alte două. Cele două cărți pe care le-a scris sunt Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002)[10] și Superinteligența. Căi, pericole, strategii (2014).[11] A doua carte a fost un bestseller New York Times, a fost recomandată de Elon Musk și Bill Gates, printre alții, și a ajutat la popularizarea termenului de „superinteligență”.

Bostrom consideră că superinteligența, pe care el o definește drept „orice intelect care depășește cu mult performanța cognitivă a oamenilor în practic toate domeniile de interes”, este un rezultat posibil al progreselor înregistrate în inteligența artificială. El consideră ascensiunea superinteligenței ca fiind potențial extrem de periculoasă pentru oameni, dar, totuși, respinge ideea că oamenii ar fi neputincioși în oprirea efectelor negative ale acesteia.[12][13][sursa nu confirmă] În 2017 a cosemnat o listă de 23 de principii pe care ar trebui să le urmeze toți dezvoltatorii de inteligență artificială.[14]

Lucrări scrise

modificare
 
Superintelligence

În cartea sa Superintelligence: Paths, Dangers, Strategies, Nick Bostrom oferă un argument că inteligența artificială va constitui o amenințare pentru omenire. El susține că, dacă alege acțiuni bazate pe atingerea unui anumit scop, o IA suficient de inteligentă va prezenta un comportament convergent⁠(d), respectiv va acumula resurse și se va proteja de la oprire. Dacă scopurile IA nu le reflectă pe cele ale umanității — de exemplu, o IA căreia i se cere să calculeze cât mai multe cifre din pi posibil — ar putea face rău umanității pentru a obține mai multe resurse sau pentru a preveni închiderea sa, totul pentru a-și atinge mai bine scopul.

  1. ^ Who's who 
  2. ^ IdRef, accesat în  
  3. ^ a b CONOR.SI[*]  Verificați valoarea |titlelink= (ajutor)
  4. ^ „nickbostrom.com”. Nickbostrom.com. Arhivat din original la . Accesat în . 
  5. ^ „Professor Nick Bostrom : People”. Oxford Martin School. Arhivat din original la . Accesat în . 
  6. ^ „Future of Humanity Institute – University of Oxford”. Fhi.ox.ac.uk. Accesat în . 
  7. ^ Frankel, Rebecca. „The FP Top 100 Global Thinkers”. Foreign Policy. Accesat în . 
  8. ^ „Nick Bostrom: For sounding the alarm on our future computer overlords”. foreignpolicy.com. Foreign Policy magazine. Accesat în . 
  9. ^ Eroare la citare: Etichetă <ref> invalidă; niciun text nu a fost furnizat pentru referințele numite ft-control
  10. ^ „Nick Bostrom on artificial intelligence”. Oxford University Press. . Accesat în . 
  11. ^ Times, The New York (). „Best Selling Science Books”. The New York Times. Accesat în . 
  12. ^ „Bill Gates Is Worried About the Rise of the Machines”. The Fiscal Times. Accesat în . 
  13. ^ Bratton, Benjamin H. (). „Outing A.I.: Beyond the Turing Test”. The New York Times. Accesat în . 
  14. ^ Eroare la citare: Etichetă <ref> invalidă; niciun text nu a fost furnizat pentru referințele numite hassabis worries

Legături externe

modificare
 
Commons
Wikimedia Commons conține materiale multimedia legate de Nick Bostrom

Vezi și

modificare