[/b/] [/d/] [/tu/] [/a/] [/34/] [/ph/] [/wa/] [/cg/] [/t/]

[Burichan] [Futaba] [Gurochan] [Photon] - [Home] [Manage] [Archive]

[Return]
Posting mode: Reply
Leave these fields empty (spam trap):
Name
Link
Subject
Comment
File
Verification
Password (for post and file deletion)
  • Supported file types are: GIF, JPG, PNG
  • Maximum file size allowed is 10240 KB.
  • Images greater than 200x200 pixels will be thumbnailed.

File: 1290733440433.jpg -(458945 B, 1000x1414) Thumbnail displayed, click image for full size.
458945 No.43977  

Скажите, нужны ли эти "Три закона робототехники" или Изя зря их так упорно форсил?

>> No.43978  

>>43977

> Три закона робототехники

Такой себе способ защиты от бунта машин.

>> No.43979  

>>43978
А куда их вставлять машинам-то? В биос? Так они за собой потянут определение понятия "человек" и "вред". Слишком громоздко и годится только для мира в духе предвоенного фоллаута.

>> No.43980  

>>43979
Пока что неясно даже куда эти самые мозги машинам вставлять, не то что какие-то определения. То что мы имеем сейчас - просто очень быстрые калькуляторы.

>> No.43981  

>>43980
Не хочу поднимать тему про ИИ, но возможно в будущем эти законы таки пригодятся? Скорее, эти самые ИИ будут использоваться заместо генерального штаба, для более эффективного убиения человеков.

>> No.43982  

>>43981
Пока еще не ясно, возможна ли жесткая логика у ии впринципе или же они будут работать только на основе того, что получили в процессе обучения.

>> No.43983  

>>43982
Ясно. Спасибо за ответы. Кстати, подумалось, а не будет ли моральной возни с ИИ, как сейчас с клонироваинем?

>> No.43984  

>>43983
Думаю что будет и, возможно, их даже официально запретят, как сейчас клонирование человека.

>> No.43985  

>>43984
Арбалет запрещали под страхом отлучения от церкви. Не очень помогло.

>> No.43986  
File: 1290738877828.jpg -(235847 B, 700x809) Thumbnail displayed, click image for full size.
235847

>>43985
Не спорю, но процесс их внедрения это сильно замедлило. Сейчас общество просто морально не готово к решению некоторых этических проблем, например в случае клонирования с некоторым генетическим изменением не до конца ясна граница, между тем, что считать человеком, а что нет.

>> No.43987  

>>43986
Если это будет выгодно, то выбелить в глазах общества всегда успеют.

>что считать человеком, а что не

Кроме моральных подводных камней будут еще и юридические. Прозреваю судовые процессы вроде "корпорация Дженерал Электрик" против ИИ Силиконовой долины.

>> No.43995  

>>43986

>что считать человеком, а что нет

никогда не понимал этой проблемы. если существо считает себя разумным и способно изъявить свою волю- оно разумно и должно иметь стандартные гражданские права и обязанности.

>> No.44015  

>>43985
Арбалет запрещали применять против католиков и христиан, а против мусульман вполне себе разрешали. Собственно тут тоже вопрос в том, кого считать человеком.

>> No.45608  

Три закона робототехники возможны лишь в азимовской реальности. Никакой реальный робот физически не сможет постоянно держать в себе ответы на вопросы "что есть человек", "как не навредить человеку" и так далее. Возможно, возможно, что будет что-то декларативное, когда мозг у робота плавиться будет от осознания того, что он нарушил закон, но тогда запреты будут вполне легко обходиться. Даже робопсихологи не нужны, обычный психиатр справится - и будут вам настоящие боевые роботы Азимова. А что, чечен - не человек. В этом не только искусственный разум можно убедить.

>> No.45610  

>>45608

>чечен - не человек

и сегодня ему предстоит очень трудная ночь. У него уже в течение полутора десятка лет каждая ночь была очень трудной, и теперь его диаспора разрослась настолько, что он без труда мог станцевать лезгинку на красной площади.

>> No.47659  

Вот вам и пример >>45610 боевого робота путлера.
А в него не три закона вкладывали, его десять лет как минимум долбили воспитанием. И что с того? Он хоть сейчас кинет зигу и пойдёт с дедовской "Сайги" стрелять. И мозги у него не расплавятся, так почему должны плавиться позитронные?

>> No.47662  
File: 1293917010450.jpg -(128927 B, 1024x768) Thumbnail displayed, click image for full size.
128927

>>43977
Прежде чем говорить о законах робототехники нужно создать, как минимум, сильный ИИ, а сейчас его нет - и даже годного проекта нет.
Робот должен выполнять определённые операции, нет необходимости перегружать систему ненужной аналитикой и алгоритмами. Алсо, мир не повернулся на человеке - например, в машиностроительной отрасли робот должен прекратить операцию, если что-то пошло не так, а не пытаться засунуть механика, собаку или двигатель в качестве запаски.

>> No.47663  

>>47662
Тут кто-то говорил, что нынешние нейросети - аналог глаза, а не мозга.
Что можно тогда считать аналогом мозга? В чём принципиальное различие?

>> No.47665  
File: 1293917495106.jpg -(157255 B, 650x700) Thumbnail displayed, click image for full size.
157255

>>47663

>Тут кто-то говорил, что нынешние нейросети - аналог глаза, а не мозга.

Что можно тогда считать аналогом мозга? В чём принципиальное различие?
Нейронные сети могут моделировать деятельность любого органа, ясчитаю. Алсо, мозг вообще не до конца изучен, поэтому аналогия некорректна. Таким образом, на данный момент аналогов у мозга нет и людей можно считать единственными разумными существами на планете.

>> No.47666  
File: 1293917631852.jpg -(144074 B, 590x889) Thumbnail displayed, click image for full size.
144074

>>47662

>Прежде чем говорить о законах робототехники нужно создать, как минимум, сильный ИИ

Скорее дать ему средства уничтожения человека. Если робот технически может убить человека, стоит задуматься о фундаментальных условиях, которые ему этого сделать не дадут. От уровня развития ИИ зависит только количество ситуаций, которые придётся рассмотреть. В изначальном варианте законов Азимова формулировка слишком туманна.

Впрочем, даже чатбот может довести до суицида особо впечатлительных.

>> No.47667  
File: 1293917941845.jpg -(974841 B, 1920x1200) Thumbnail displayed, click image for full size.
974841

>>47666

>Впрочем, даже чатбот может довести до суицида особо впечатлительных.

Чатбот не предназначен для убийства - от банальных запоров умирает больше. Машина - инструмент и реальную опасность представляют рукожопые разработчики.

>> No.47668  

Напомню:

  1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.

Как видно это достаточно сложные законы, которые в их буквальном смысле слишком сложны для толкования даже человеком, а не только роботом.
Например. Что означает "причинять вред"? Понятно, что бить молотком по голове - это причинять вред, но что если роботу-почтальону дадут задание отнести письмо с приказом об увольнении человеку, а он откажется, потому что это причинит этому человеку вред? Что если с вероятностью 50% после недели тяжелой депрессии, начавшейся после увольнения, этот человек покончит с собой?
Робот должен повиноваться всем приказам - это более однозначный закон, но он связан с первым, а значит тоже противоречив.
Кстати, опять о Первом. Современный мир. В Африке каждые несколько секунд от голода умирает несколько людей. Получается, что каждую секунду робот своим бездействием допускает, что человеку причиняется вред.
Так что делать? Ввести всякие ограничители? Например, "если страдающий объект не рядом, значит робот не должен об этом думать".
Хорошо, другой пример. Робот несет пиццу на заказ, к нему подходит голодающий бомж. Упс.
Значит нужно добавить еще принцип уважения к частной собствености. И тогда робот сможет проигнорировать умирающего от голода и донесет пиццу до того жирдяя, который ее заказал. Или может добавим функцию оценки? Скажем, если убытки меньше 10$, то допустимо спасти человеку жизнь. Нет, 10 мало. 100? 1000? 10000? Сколько стоитжизнь человека?

Законы Изи слишком изи. Очевидно, что они имеют рекламный характер, так же, как заповеди Моисея, и буквально следовать им невозможно. Может быть можно как-то реализовать их практически, но реальное решение, конечно же, будет только более или менее точным приближением к этим законам. Возможно, они будут столь же несовершенны как человеческие, и однажды роботы научатся их обходить, так же, как мы обходим внутренний запрет на убийство. Такие дела.

Кстати, у Айзека был один любопытный рассказ, который говорит, что он и сам осознавал потенциальные проблемы. В рассказе "Лжец" по какой-то случайности один из роботов приобрел телепатические способности. Естественно, люди отнеслись к этому как к находке мешка золота. Ну и пока они расследовали обстоятельства многие решили за счет робота-телепата решить личные проблемы. Его много про что спрашивали, а он в ответ... лгал. Потому что как никто другой знал, какой вред причиняют им неприятные истины. Врал он до тех пор, пока один дотошный исследователь не поймал его на вранье. В этой ситуации он оказался в западне: любое его действие причинило бы человеку вред, так что он впал в электронный эквивалент комы.

>> No.47671  
File: 1293918269801.jpg -(38651 B, 400x300) Thumbnail displayed, click image for full size.
38651

а почему роботы вообще должны истребить людей? мы же не истребляем обезьян. кто-то их даже обучает.

>> No.47673  

>>47671
Ты дурак? Будет конфликт за ресурсы, они всем нужны.

>> No.47674  

>>47673
Никому твои ресурсы не нужны.

>> No.47676  
File: 1293918520611.jpg -(423268 B, 595x841) Thumbnail displayed, click image for full size.
423268

>>47673

>Будет конфликт за ресурсы, они всем нужны.

Лишь в том случае, если у роботов будут схожие с людьми ценности. То есть, роботы будут действовать как биологические организмы. Где-то я об этом уже писал.

>> No.47678  

>>47674
Действительно, дурак.

>> No.47679  

>>47676
Ага, железо людям не нужно, неодим-церий-редкозмельные металлы не нужны, энергия не нужна, смазка-бензин-другие производные нефти тоже не нужны, территория не нужна.

>> No.47680  

>>47671
Для более эффективного выполнения поставленной задачи. Устранение угрозы, препятствия или прямое использование человека или его части.

>> No.47681  

Я тут заглянул в Википедию, узнал одну подробность, о которой раньше не знал.
Оказывается был еще и "Нулевой закон".
"Айзек Азимов однажды добавил Нулевой Закон, сделав его более приоритетным, чем три основных. Этот закон утверждал, что робот должен действовать в интересах всего человечества, а не только отдельного человека. Вот как выражает его робот Дэниел Оливо в романе «Основание и Земля»:

0. Робот не может нанести вред человечеству или своим бездействием допустить, чтобы человечеству был нанесён вред."

И дальше еще несколько любопытных фактов.

Ну что скажешь, Макиавелли одобряет.

>> No.47683  

>>47679

>Ага, железо людям не нужно, неодим-церий-редкозмельные металлы не нужны, энергия не нужна, смазка-бензин-другие производные нефти тоже не нужны, территория не нужна.

Люди, как биологические организмы. используют их для реализации, опять же, биологических потребностей.

>> No.47685  

>>47671
Однако сам по себе вопрос интересный.

В принципе, человек считаетсилу универсальным аргументом, и несмотря на потенциальные навыки жить в мире часто использует физическое или психическое давление.

Наверное, именно поэтому от ИИ, как от подобных людям, ждут, что они не потерпят неконтролируемых "низших существ" и либо уничтожат людей, либо будут держать их на положении обезьян. Держать и разводить. И обучать.

С другой стороны, если ИИ будут конструировать действительно люди, то очень вероятно, что они такими и будут.

Трудно отрешиться от своей природы, когда создаешь ("по образу и подобию", лол). Нужно быть нечеловеком, чтобы создать нечеловечески гуманную этику. Опять же от вопроса конкуренции и выживания никак не убежать... так что либо ИИ будет один, либо доброго ИИ победит гнусный.

>> No.47686  

>>47674
маловероятно. ии вероятнее всего при первой возможности отправится в космос, где существование наиболее энергетически эффективно и безопасно. может быть конфликт за производственные мощности для изготовления первоначального оборудования необходимого ии, но любая демонстрация силы с его стороны приведёт к ядерному конфликту и уничтожению необходимой ему человеческой инфраструктуры, так что он вероятно будет действовать путём обмана, прокси-фирм и финансовых махинаций. благо информатизирован рынок уже сейчас ого как. после получения нужного оборудования человечество его перестанет интересовать вообще, так что смысла в конфликте опять же не будет.
>>47678
а ты хуй.

>> No.47687  

>>47683
Ты на вопрос-то ответь, не виляй. Нужно то, что я перечислил, людям или нет?

>>47686
Пососи меня.

>> No.47688  

>>47687
маня, ты охуела?

>> No.47689  
File: 1293919841481.jpg -(173625 B, 600x453) Thumbnail displayed, click image for full size.
173625

>>47686
но это если предположить что ии внезапно мотивировался познанием своего я и вселенной вообще.

бунт же безвольной программы наиболее вероятен из-за ошибки в этой программе, так что ваш бунтующий ии будет настолько же логичен как и любой псих.

>> No.47690  

>>47688
зина, давай ближе к теме. мне сраться не интересно.
есть голова на плечах? если нет иди нахуй. если есть - давай по теме. в лексике я себя не ограничиваю, идиотов называю идиотами. зато и признавать свои проебы умею.

>> No.47691  
File: 1293919917986.jpg -(380957 B, 1304x984) Thumbnail displayed, click image for full size.
380957

Лучшая причина убивать людей - какой-нибудь специально написанный для этого вирус. Поэтому ИИ должен быть таким, чтобы на уровне железа не допускать вреда человеку.

>> No.47697  

ну где ты там, зина? дискуссия состоится, или ты можешь разговаривать только с теми, кто тебе поддакивает?

Вбрасывю тезис: базовые особенности человеческой жизни это неограниченное размножение и конкуренция за ограниченные ресурсы, которая ограничена этикой и моралью. Ограничения гибкие, поэтому возможны всякие отклонения как в ту, так и в другую сторону. Так что люди способны и на альтруизм, и на массовые убийства.
Если роботам впаяют в основные цепи то же самое - неограниченное размножение и конкуренция, то конфликт за ресурсы неизбежен.

>> No.47698  

>>47697
->
>>47686>>47689

>Если роботам впаяют в основные цепи то же самое - неограниченное размножение и конкуренция

да. но зачем им это впаивать. да и ии- не робот, это программа.

>> No.47701  
File: 1293921038062.jpg -(336700 B, 693x984) Thumbnail displayed, click image for full size.
336700

>>47687

>Ты на вопрос-то ответь, не виляй. Нужно то, что я перечислил, людям или нет?

Нужно - для удовлетворения биологических потребностей. Если копнуть глубже - чтобы существовать и плодиться. Роботам, в данном случае, эти ресурсы нужны для тех же целей.

>>47690
А вообще - Адаяне, ты - хуй и хватит разводить срачи с ньюфагами.

>> No.47702  

>>47698

>да. но зачем им это впаивать. да и ии- не робот, это программа.

Для меня достаточно очевидно, что хороший робот должен иметь сильный ИИ, и наоборот. Иначе они мало на что годны, как это сейчас и есть.
Так что в некоторм смысле я считаю эти понятия синонимами, хотя в широком смысле это и не так.

>зачем им это впаивать.

-> >>47685

>> No.47703  

>>47701
это не я.

>> No.47704  

>>47702
нет, зачем им способность к размножению и самомодификации?

>> No.47706  

>>47701
Значит, все-таки я был прав. Конкуренция. Безжалостная штука. И в то же время движитель (или двигатель?) отбора наиболее совершенных созданий природы.

Я не Адаяне, лол. Скорее, я ньюфаг.

>> No.47707  

>>47704

>самомодификации

Будут недостаточно гибкими.

>способность к размножению

А это они изобретут сами.

У меня другой вопрос: зачем им способность к самоосознанию?

>> No.47708  
File: 1293921917057.jpg -(58565 B, 569x600) Thumbnail displayed, click image for full size.
58565

>>47707

>Будут недостаточно гибкими.

99,(9)% процентов человечества всю жизнь прождили с одним типом мышления. и были достаточно гибки.

>А это они изобретут сами.

зачем?

а что есть самосоознание?

>> No.47709  

Изя всего лишь творчески осмыслил проблемы возникшие у Пражского гетто с големом.

>> No.47711  

>>47708
Самоосознание - осознание себя как личности. Я и другие. У тебя есть желания, есть мечты. Самостоятельность. У того, кто не осознает себя их нет, зато есть, например, приказы.

>99,(9)% процентов человечества всю жизнь прождили с одним типом мышления. и были достаточно гибки.

Этого им хватало, чтобы свергать старую власть. И делать много чего другого. Так что не надо недооценивать.

>Может быть можно как-то реализовать их практически, но реальное решение, конечно же, будет только более или менее точным приближением к этим законам. Возможно, они будут столь же несовершенны как человеческие, и однажды роботы научатся их обходить, так же, как мы обходим внутренний запрет на убийство.
>зачем?

Кто знает. Может, по аналогии с людьми. Может, просто чтобы возобновлять потери и чтобы увеличивать свое число для контроля новых территорий. Впрочем, это типично людской подход. Может быть, они сочтут его не годным и придумают лучше.

>> No.47716  
File: 1293922901889.jpg -(102532 B, 900x675) Thumbnail displayed, click image for full size.
102532
>желания, есть мечты

не более чем химические стимуляции и комплексы. что есть я? набор клеток?

>Этого им хватало, чтобы свергать старую власть. И делать много чего другого. Так что не надо недооценивать.

нет, ты не понимаешь что такое тип мышления. роботам тип мышления изменять не нужно, если они конечно не реализованы через магическую нейросеть, которую не понимают сами разработчики.

>Может, по аналогии с людьми.
>они сочтут его не годным и придумают лучше.

ты не понимаешь. робот-слуга, допустим, есть- зачем ему размножаться?

>> No.47724  

>>47716
А почему он слуга? Почему он хочет быть именно слугой, а не заниматься реализацией своих личных желаний?

>нет, ты не понимаешь что такое тип мышления. роботам тип мышления изменять не нужно, если они конечно не реализованы через магическую нейросеть, которую не понимают сами разработчики.

Да, тут я тебя не понимаю. Объясни как-нибудь по-другому.

>> No.47726  

>>47724

>своих личных желаний

у робота нет желаний и мотивации, если она не закодирована отдельно.

да, ты не понимаешь. объяснять долго. я бы тебе сказал "читай книги", но и точных названий, которые следовало бы указать, не знаю. полуркай в старых тредах.

>> No.47728  

>>47726

>у робота нет желаний и мотивации, если она не закодирована отдельно.

А что есть какой-то другой способ запрограммировать поведение?

>> No.47729  

>>47728

>запрограммировать поведение

а как ты мотивациями запрограммируешь поведение?
робот выполняет команды человека.

>> No.47735  

>>47729
На каждый шаг давать команду? Да проще самому сделать. Без определенной самостоятельности роботы не нужны.

>> No.47737  
File: 1293925513190.jpg -(123558 B, 1123x796) Thumbnail displayed, click image for full size.
123558

>>47735

>Без определенной самостоятельности роботы не нужны.

Чушь пишешь. Все(!) современные роботы подчиняются строгим алгоритмам. Или ты считаешь, что экономика сейчас и экономика 50х-60х ничем не отличаются?

>> No.47741  

>>47737
А современные роботы все говно, кроме промышленных, которым самостоятельность действительно не нужна. Но им и три закона не нужны.

>> No.47746  

>>47741

> кроме промышленных

Подавляющее большинство роботов - используется в промышленности, либо подчиняется алгоритмам.
А вообще, в ближайшие десятилетия бытовые роботы с ИИ не понадобятся.

>> No.47748  

>>47746
Тогда и говорить о трех законах незачем.

>> No.47750  

>>47737>>47735
подождите пока с домыслами, я завтра объясню, сейчас уже натурально глаза слипаются.



Delete Post []
Password

[/b/] [/d/] [/tu/] [/a/] [/34/] [/ph/] [/wa/] [/cg/] [/t/]