Вчені й інженери попереджають про шкоду штучного інтелекту
Відкритий лист, в якому закликають до обережного поводження з штучним інтелектом, підписало величезна кількість людей, в тому числі і провідні дослідники і вчені в цій галузі. Автори вважають, що штучний інтелект не повинен виходити за межі нашого контролю.
Відео: Штучний інтелект [Хроніки Царгорода]
Побоювання, пов`язані зі штучним інтелектом
Такі фільми, як «Термінатор», дають нам повне уявлення про те, що трапиться, коли роботи перестануть виконувати наші команди. Тому побоювання багатьох людей, і вчених в тому числі, не можна назвати необгрунтованими. З огляду на темпи розвитку комп`ютерних технологій, ми все ближче підходимо до точки, коли доведеться вирішувати ці питання.
У грудні Стівен Хокінг дав старт нової хвилі обговорень навколо цієї теми. З огляду на те, що здібності Хокінга до спілкування залежать від передових комп`ютерних технологій, його навряд чи можна зарахувати до луддитів, але його думки, безсумнівно, привертають увагу.
Лист було ініційовано Інститутом майбутнього життя - це добровільна організація, яка описує свої завдання як «пом`якшення екзистенціальних ризиків, що стоять перед людством».
Відео: The two sides
Про що йде мова в листі
У відкритому листі зазначається, що існує можливість в цих областях переступити поріг, що відокремлює лабораторні дослідження і розвиток економічно цінних технологій, хоча навіть незначні поліпшення в продуктивності коштують величезних грошей. Це стає причиною збільшення інвестиційних потоків в дослідження. В даний час стає зрозумілим, що дослідження штучного інтелекту неухильно прогресує, і його вплив на суспільство, швидше за все, збільшиться. Потенційні вигоди величезні, так як все, що може запропонувати цивілізація, є продуктом людського розуму. Ми не в змозі передбачити, чого зможемо досягти, якщо станемо використовувати штучний інтелект, але викорінення хвороб та бідності не є чимось незбагненним. З огляду на великий потенціал штучного інтелекту, важливо зрозуміти, як скористатися його перевагами, уникаючи потенційних пасток.
Автори додають, що наші системи штучного інтелекту повинні робити тільки те, що ми хочемо від них отримати, і не приносити при цьому шкоди людям. Також в листі викладені пріоритетні напрямки досліджень, які, на думку авторів, можуть принести максимальні блага для суспільства.
Можливо, вам варто приєднатися?
Будь-який бажаючий може підписати цей лист, і тисячі людей вже зробили це. Хоча багато що підписали є звичайними людьми, але такі імена, як Елон Маск і сам Хокінг, легко впізнавані. Багато інші імена в списку - провідні дослідники в сфері IT та філософії, в тому числі і команда IBM.