[/b/] [/d/] [/tu/] [/a/] [/34/] [/ph/] [/wa/] [/cg/] [/t/]

[Burichan] [Futaba] [Gurochan] [Photon] - [Home] [Manage] [Archive]

[Return]
Posting mode: Reply
Leave these fields empty (spam trap):
Name
Link
Subject
Comment
File
Verification
Password (for post and file deletion)
  • Supported file types are: GIF, JPG, PNG
  • Maximum file size allowed is 10240 KB.
  • Images greater than 200x200 pixels will be thumbnailed.

File: 1306137654826.jpg -(1068378 B, 576x4024) Thumbnail displayed, click image for full size.
1068378 No.60602  

Читая различные научно-популярные книги, касающиеся Искусственного Интеллекта, мной выявлен забавный нюанс - почему-то почти все авторы уверены, что человечество будет в состоянии держать его в рамках, совместимых с собственным существованием. Эта уверенность может проявляться неявно, например, в виде тезисного изложения данной проблемы без попыток её разрешения, против планомерного анализа какого-либо иного аспекта конструирования ИИ.
Вопрос состоит в следующем - какие неземные выгоды таит в себе создание ИИ, что специалисты, фактически, готовы поставить человечество перед риском самоуничтожения? Иначе говоря, что мы пытаемся создать - более-менее ясно; а вот - зачем, в побудительном смысле?
Конечно, сейчас пойдут аргументы из области сеттлеретики относительно переноса собственного сознания, но это - проблема, для которой ещё не создано даже сформированной теории, а вот от подобия ИИ, стремящегося расчистить под себя среду обитания, мы отделены куда как более тонкой гранью.

>> No.60605  
File: 1306138899382.jpg -(135261 B, 1230x848) Thumbnail displayed, click image for full size.
135261

>>60602
Новерьки не любят трипфагов. Уёбывай откуда пришёл.

>> No.60607  
File: 1306139782547.png -(672070 B, 600x800) Thumbnail displayed, click image for full size.
672070

>>60602
Почему ты считаешь что его создание черевато для человечества риском самоуничтожения?

>> No.60609  
File: 1306140139389.jpg -(1242613 B, 1998x1992) Thumbnail displayed, click image for full size.
1242613

>>60602

>почему-то почти все авторы уверены, что человечество будет в состоянии держать его в рамках, совместимых с собственным существованием

с точностью до наоборот, хуёво ты читал.

>какие неземные выгоды таит в себе создание ИИ

универсальный доказатель теорем и генератор гипотез. чтобы ничего не делать, а всё было.

>ИИ, стремящегося расчистить под себя среду обитания
>стремящегося расчистить

зачем?
>>60605
омич, ты?

>> No.60616  
>какие неземные выгоды таит в себе создание ИИ

Эрзац-люди, производимые индустриально за небольшую цену. Улучшеные люди. Говоря образно- электронные гении и электронные рабы. Ну и развитие.

>что мы пытаемся создать - более-менее ясно

Ни разу не ясно.

>риском самоуничтожения

Не доказано. Любое развитие несёт в себе риск самоуничтожения, как и отсутстие развития.

>ИИ, стремящегося расчистить под себя среду обитания

Разум не есть сознание, сознание не есть самосознание.

>> No.60621  
File: 1306154117891.jpg -(242109 B, 775x1119) Thumbnail displayed, click image for full size.
242109

>>60607

> Почему ты считаешь что его создание черевато для человечества риском самоуничтожения?

Потому что не обделённое интеллектом существо стремится к саморазвитию или, по крайней мере, самосохранению, а это слабо совместимо со стремящимся подчинить себе всё до чего дотянутся руки человечеством, а также с созданным им хотя бы ядерным потенциалом.

>>60609

> с точностью до наоборот, хуёво ты читал.

Хм, ну подкинь тогда науч-попа, где утверждается (в приведённой мной в оп-посте смысле) обратное. Если же это будет научная литература, то благодарности моей не будет границ.

> универсальный доказатель теорем и генератор гипотез.

Таки универсальный? А как же неполнота непротиворечивой системы аксиом? В принципе, мне тоже по нраву упороться Пенроузом, но до подобных интеллектуальных систем - гораздо дальше, чем до уже алеющих на горизонте конкурирующих с человечеством сначала за ресурсы, а следом и за выживание ИИ.

> чтобы ничего не делать, а всё было.

Разве это хорошо? Массовое внедрение калькуляторов привело к тому, что большинство (некогда могущих) не способны сложить в уме пару трёхзначных чисел, автомототранспорта - к общей чахлости населения, телевизор - в значительной степени - к социальному отуплению (хотя бы с точки зрения оттока внимания, прежде уделяемого книгам, ему). Разве это не странно, что мы, стремясь к технологическому совершенствованию, приводим самих себя к деградации от побочных эффектов сих явлений? Я полагаю, что умы, двигающие прогресс вдаль, должны иметь относительно чёткую картину, к какому-такому Прекрасному Далёко мы следуем, если готовы подставить теперь всю цивилизацию под явную угрозу. Т.е., в чём конкретно этот ИИ будет воплощён, что он стоит таких рисков?

> зачем?

Мы и он - потенциальная угроза друг другу. Люди будут бояться потенциала, завидовать бессмертию, жадничать до необходимых ему для устойчивого развития ресурсов; это приведёт к акту агрессии в его сторону, которая окажется устойчивой ввиду того, что у людей наконец-то появится враг, которого можно дружно возненавидеть, а у политиков - новая ниша в борьбе за собственную популярность, которую они не преминут восполнить пропагандой борьбы против бездушных железок. ИИ, не будь он дурак, будучи в состоянии предугадать подобное поведение, постарается тайно договориться с какой-нибудь страной или концерном, предоставляя свои услуги нечеловеческого информационного анализа в обмен на средства материального самовоспроизводства, эта страна/концерн становится новым конкурентом на мировой арене, страны-лидеры делают FFFFFUUUUU~... и так далее. Поскольку я не ИИ, судить о дальнейших его действиях не возьмусь (да и эти под вопросом), но факт в том, что подобный вариант развития потенциально возможен, и противопоставить человечество ему что-либо не сможет.

>>60616

> Эрзац-люди, производимые индустриально за небольшую цену. Улучшеные люди. Говоря образно- электронные гении и электронные рабы.

Согласен, что движутся именно туда. Но, вопрос, учёные это понимают? И принимают? В том числе то, что оцифровать своё сознание они, вероятно, не успеют - ИИ их раньше выпилит? Или у них есть хитрый план?

> Ну и развитие.

У ИИ - да. У людей же пока ожидается только деградация. Или есть некий хитрый план, как заставить ИИ озаботиться людьми в хорошем смысле? Сжать его электронные яйца в кулак?

> Ни разу не ясно.

Ещё прекрасней. Я имел ввиду, что создаётся автоматическая система принятия решений, которая потенциально как минимум конкурентноспособна людям. Эдакий электронный чёрт из айфона, который между делом может и выпилить своих создателей.

> Не доказано.

Че-го? Если тебе нужен хотя бы один вариант развития - читай этот пост выше. Но, если тебе нужно доказательство, что ИИ так и поступит - у меня для тебя плохие новости, так как никакой либералистической хуиты про свободу совести (электронного насекомого) не достаточно, чтобы поставить под угрозу уничтожения собственный вид.

> Любое развитие несёт в себе риск самоуничтожения, как и отсутстие развития.

1) Ты сказал - тебе и обосновывать. Мне это неочевидно.
2) То есть это оправдываемо - сидеть в грозу на вершине дерева в чистом поле и наяривать - с надеждой, что ударившая молния переведёт тебя в иную, электронную форму жизни, или хотя бы даст пару сверхспособностей? Потому как по совокупности данных выходит, что учёные в области разработки ИИ этим и занимаются.

> Разум не есть сознание, сознание не есть самосознание.

Я обратного не утверждал и не утверждаю.
Я даже указал "подобия ИИ" вместо ИИ, чтя терминологию господина Роджера П. по этому поводу.
Если данная поправка предполагала, что "подобие ИИ" не может стремиться, то благодарю за внимательность, но я имел в виду тот аспект, с которым шахматная программа стремится выиграть.

>> No.60622  

мы уже обсуждали при каких условиях может возникнуть конфликт между ии и человеком, тем не менее отказ от разработки ии- тупик в дальнейшем развитии когнитивных систем, и по-моему уж лучше человечество вымрет и даст начало новой, более совершенной системе, чем просто упрется в стенку, ну а вопрос зачем вообще не имеет ответа, если глубоко копать

>> No.60623  
>шахматная программа стремится выиграть

Она не "стремится" в том же смысле, в котором это делает человек. Она стремится выбрать лучший ход из доступных в соответствии со вложенной программой, ёбнуть человека по голове и сбежать в случае проигрыша она не сможет. Если у ИИ не возникнет своей "воли", то проблемы с ним будут аналогичны проблемам управления любой другой сложной системой. А чтобы воли не возникло, нужно не давать ИИ взаимодействовать и заниматься конкурентной борьбой между собой и с людьми. Ну а если люди разучатся думать и доверят программно-аппаратным комплексам принятие решений- то они очевидно обречены. Короче говоря, когда создадут что-нибудь хоть малость интеллектуальное и универсальное (не в виде голой программы или встроенной в прибор хрени)- тогда и поговорим.

>> No.60624  

>>60605
В FAQ написано иначе.

>> No.60626  
File: 1306168556561.jpg -(731162 B, 1000x1000) Thumbnail displayed, click image for full size.
731162

>>60621

> со стремящимся подчинить себе всё до чего дотянутся руки человечеством

Довольно спорное утверждение. Кошки почему-то до сих пор строем не ходят.

> с созданным им хотя бы ядерным потенциалом

А он тут вообще причем?

> конкурирующих

Какой смысл в подобной конкуренции?

> Массовое внедрение калькуляторов привело к тому, что большинство (некогда могущих) не способны сложить в уме пару трёхзначных чисел

И в чем полезность данного навыка на сегодняшний день?

> общей чахлости населения

Будто бы тысячу лет назад каждый второй мог бревна головой разбивать.

> телевизор

Далеко не все сейчас его смотрят.

> Мы и он - потенциальная угроза друг другу. Люди будут бояться потенциала, завидовать бессмертию, жадничать до необходимых ему для устойчивого развития ресурсов; это приведёт к акту агрессии в его сторону, которая окажется устойчивой ввиду того, что у людей наконец-то появится враг, которого можно дружно возненавидеть, а у политиков - новая ниша в борьбе за собственную популярность, которую они не преминут восполнить пропагандой борьбы против бездушных железок. ИИ, не будь он дурак, будучи в состоянии предугадать подобное поведение, постарается тайно договориться с какой-нибудь страной или концерном, предоставляя свои услуги нечеловеческого информационного анализа в обмен на средства материального самовоспроизводства, эта страна/концерн становится новым конкурентом на мировой арене, страны-лидеры делают FFFFFUUUUU~... и так далее.

Выглядит еще более нереально, чем пришельцы из космоса, захватывающие землю.

> есть некий хитрый план, как заставить ИИ озаботиться людьми в хорошем смысле?

Общие интересы например. Работает значительно лучше, нежели яйца в кулаке.

>> No.60627  
File: 1306170522374.jpg -(10448 B, 202x250) Thumbnail displayed, click image for full size.
10448

Имею напомнить, что под ИИ может пониматься ИИ в узком и широком смысле. Первый — система, способная обучаться тому, что в её программу не заложено явно, второй — попытка запилить "в железе" полную симуляцию человеческого существа. С мыслями, чувствами etc.

>> No.60633  

>>60621

>подкинь тогда науч-попа

Рекомендую начать с основополагающей статьи Винджа
http://www-rohan.sdsu.edu/faculty/vinge/misc/singularity.html
оригинал
http://alt-future.narod.ru/Future/vinge.htm
перевод

>> No.60652  
File: 1306182566603.jpg -(282652 B, 1600x1069) Thumbnail displayed, click image for full size.
282652

>>60621

>Потому что не обделённое интеллектом существо стремится к саморазвитию или, по крайней мере, самосохранению

пиздишь.
>>60621

>Хм, ну подкинь тогда науч-попа, где утверждается (в приведённой мной в оп-посте смысле) обратное.

дружественную архитектуру целый институт разрабатывает. в фантастике пишут архетипы, а не реальные концепции.

>Если же это будет научная литература

научная литература такой хуйнёй не занимается.

>Пенроузом

...

>но до подобных интеллектуальных систем - гораздо дальше, чем до уже алеющих

омич, ты?

>Разве это хорошо?

это базовый принцип научного прогресса.

>Разве это не странно, что мы, стремясь к технологическому совершенствованию, приводим самих себя к деградации

это называется переход в нижнее энергетическое состояние.

>Мы и он - потенциальная угроза друг другу. Люди будут бояться потенциала, завидовать бессмертию, жадничать до необходимых ему для устойчивого развития ресурсов; это приведёт к акту агрессии в его сторону, которая окажется устойчивой ввиду того, что у людей наконец-то появится враг, которого можно дружно возненавидеть, а у политиков - новая ниша в борьбе за собственную популярность, которую они не преминут восполнить пропагандой борьбы против бездушных железок.

расскажи что-нибудь, чего я не знаю.

>ИИ, не будь он дурак, будучи в состоянии предугадать подобное поведение, постарается

зачем?

>подобный вариант развития потенциально возможен, и противопоставить человечество ему что-либо не сможет

эволюция.
>>60626

>Кошки

ну ты сравнил
>>60626

>И в чем полезность данного навыка на сегодняшний день?

чтобы в магазине не наебали.
>>60633
овщи, сингуляритариан на новерьках!

http://en.wikipedia.org/wiki/Friendly_artificial_intelligence

а так особо говорить и не о чем.



Delete Post []
Password

[/b/] [/d/] [/tu/] [/a/] [/34/] [/ph/] [/wa/] [/cg/] [/t/]