От Booker
К Пехота
Дата 03.01.2011 15:49:27
Рубрики Прочее; Современность; Космос;

... а с естественным мы сами справимся! )))))

>А если мы не предвидим всех последствий? А если мы переоцениваем одни последствия и недооцениваем другие?>

Не, это не катит. Мы для любого действия не предвидим всех последствий, шож теперь, застыть в неподвижности?

С уважением.

От Фигурант
К Booker (03.01.2011 15:49:27)
Дата 04.01.2011 02:08:24

Настоящий ИИ по определению будет опережать человека. Остальное дарвинизм.

Нигде никто еще не увидел что более высокий и развитый разум (плюс еще - если допустим - потенциально бессмертный, т.е. в смысле независимый от старения, скажем) подчиняется более низкому (хотя конечно есть теории что вся природа - это просто жратва и домик для бактерий - истинных хозяек Вселенной :)) ).

От И. Кошкин
К Фигурант (04.01.2011 02:08:24)
Дата 05.01.2011 19:03:03

И такое кино я тоже смотрел! Там компьютер убил почти всех человеков! (-)


От Александр Солдаткичев
К Фигурант (04.01.2011 02:08:24)
Дата 04.01.2011 11:35:04

С чего бы вдруг?

Здравствуйте

Если посмотреть на первый самолёт, первый автомобиль, первую пушку, то понятно, что и первый ИИ будет убогим - хорошо, если хотя бы уровень собаки получится.

С уважением, Александр Солдаткичев

От Лейтенант
К Александр Солдаткичев (04.01.2011 11:35:04)
Дата 04.01.2011 12:30:29

А если посмотреть на непервый?

Тем более, что неявно предполагается способность ИИ к самосовершенствованию.

От Александр Солдаткичев
К Лейтенант (04.01.2011 12:30:29)
Дата 04.01.2011 13:28:31

У всех непервых есть предел развития.

Здравствуйте

>Тем более, что неявно предполагается способность ИИ к самосовершенствованию.

Да ради бога - собаки тоже способны к самосовершенствованию, но человека пока не обогнали.
С чего вдруг способности ИИ будут выше, если задаёт их человек изначально?

С уважением, Александр Солдаткичев

От Фигурант
К Александр Солдаткичев (04.01.2011 13:28:31)
Дата 04.01.2011 15:39:33

Я говорил о ИИ. Вы же смешивайте полноценный ИИ и ботов.

>>Тем более, что неявно предполагается способность ИИ к самосовершенствованию.
Самосовершенствование человеческого интеллекта тоже под вопросом. В рамках эволюции вида (т.е. перехода от одного вида в другой) уже не очень. Но это уже другой вид будет :))

>Да ради бога - собаки тоже способны к самосовершенствованию, но человека пока не обогнали.
Нет, также как и любой человеческий индивид, собака может просто более или менее полноценно реализовать потенциал, который в ней уже изначально заложен.
Я же говорил о сосуществовании полноценного ИИ и человека.
В конце концов между годовалым ребенком гомосапиенса и взрослым шимпанзе разницы мало. Однако уже очень быстро ребенок переходит на уровень который шимпанзе в рамках своего вида никогда не достигнет. Потому что у него этот потенциал заложен. Конечно, если ребенка отдать на попечение шимпанзе и он каким-то чудом выживет, то он будет и действовать как шимпанзе :) И у человека бывают олигофрены, а у шимпанзе более одаренные особи. Но пока одаренные шимпанзе не рулят над человеческими идиотами.

>С чего вдруг способности ИИ будут выше, если задаёт их человек изначально?
В том-то и дело, что если все задает изначально, то это будет бот, а не ИИ. В лучшем случае получится бот, который виртуозно мимикрирует под ИИ. Однако есть мнение, что ИИ никогда не получится создать путем тупого программирования, и поначалу надо понять как у нас самих мозг работает - без этого будет в лучшем случае манипулятор символов, который может даже пройти простой вариант теста Тюринга, но вечно останется в китайской комнате :) Такой вариант вполне может сосуществовать относительно мирно, если ему не дать широкие полномочия - в обратном случае получается заключательная глава I Robot :), где человечество само не замечает кто им управляет по вполне альтруистическим принципам :)

А если будет полноценный ИИ, не основанный на биологическом старении процессов (не подверженный смерти от времени) то это будет уже другой вид жизни. И будет очень трудно обьяснить этому виду что он должен дать себя спокойно отключить какому-то смертному в случае странного поведения.

Ну и конечно главный вопрос: что собирается человечество делать с таким ИИ и как собирается его использовать. Если сделает не-автономным (скажем по энергопитанию) в отношении человека, то вполне можно относительно мирно сосуществовать в рамках симбиоза разных видов. Если полностью автономным - пиши пропало. А мне кажется что рано или поздно придет соблазн из симбиоза перейти на уровень смешения и того самого human enhancement, хотя бы потому что соблазн жить или хотя бы мыслить вечно у человека всегда будет.

И тогда homo sapiens спокойно вымрет как вид, и будет гибрид в прошлом искуственного ИИ и гомосапиенса. Это в лучшем варианте.

От Александр Солдаткичев
К Фигурант (04.01.2011 15:39:33)
Дата 04.01.2011 16:16:23

Это вы смешиваете ИИ и Абсолютный Разум.

Здравствуйте

>Самосовершенствование человеческого интеллекта тоже под вопросом. В рамках эволюции вида (т.е. перехода от одного вида в другой) уже не очень. Но это уже другой вид будет :))

>Нет, также как и любой человеческий индивид, собака может просто более или менее полноценно реализовать потенциал, который в ней уже изначально заложен.

>Я же говорил о сосуществовании полноценного ИИ и человека.

Из ваших слов видно, что ограниченность интеллекта человека и собаки вам понятна.
Однако, если ИИ будет ограничен, вы отказываетесь считать его полноценным. На каком основании?
Интеллект людей или собак вы тоже считаете неполноценным?

Вы подменяете задачу - вместо ИИ вы говорите о бесконечно самосовершенствующемся ИИ.

С уважением, Александр Солдаткичев

От Фигурант
К Александр Солдаткичев (04.01.2011 16:16:23)
Дата 04.01.2011 16:45:24

При чем тут слово абсолютный, не понял. :)))

>Здравствуйте

>>Самосовершенствование человеческого интеллекта тоже под вопросом. В рамках эволюции вида (т.е. перехода от одного вида в другой) уже не очень. Но это уже другой вид будет :))
>
>>Нет, также как и любой человеческий индивид, собака может просто более или менее полноценно реализовать потенциал, который в ней уже изначально заложен.
>
>>Я же говорил о сосуществовании полноценного ИИ и человека.
>
>Из ваших слов видно, что ограниченность интеллекта человека и собаки вам понятна.
Если не понятно, повторю еще раз: интеллект человека ограничен его возможностями в рамках его вида. При этом мы еще не постигли толком как наш мозг работает и где эти границы, так что что-то утверждать по поводу ограниченности интеллекта вообще - анти-научно. Можно говорить только в рамках вида, и задатся философским вопросом если, скажем, гибрид человека-киберпротез на неврональном уровне все еще принадлежит виду гомо сапиенс или нет. Но это буквоедство.

>Однако, если ИИ будет ограничен, вы отказываетесь считать его полноценным. На каком основании?
Вы не поняли что я сказал. Я говорил только о ограничении в рамках ИИ. Если ИИ будут ограничивать именно разумные процессы, то тогда это уже не ИИ по определению так как не пройдет даже тест Тюринга (что само по себе тоже не абсолютный показатель). Вы просто определитесь что для вас лично означает ИИ. Я же просто исхожу из принятого научного определения что такое ИИ.

>Вы подменяете задачу - вместо ИИ вы говорите о бесконечно самосовершенствующемся ИИ.
Там ни слова об этом нет. Потому что ИИ или есть, или нет, и все. Ограничивать можно возможности ИИ реализовать свой потенциал - также как и можно приковать человека к больничной койке, например. Не дать автономное питание, не дать передвигатся итд итп. Но о ограничении самого разума речь идти не может, потому что тогда это уже не ИИ.


>С уважением, Александр Солдаткичев

От Александр Солдаткичев
К Фигурант (04.01.2011 16:45:24)
Дата 04.01.2011 18:12:14

При том, что без верхней границы ваш ИИ устремится в бесконечность.

Здравствуйте

>Если не понятно, повторю еще раз: интеллект человека ограничен его возможностями в рамках его вида.

ИИ тоже чем-то ограничен.

>Вы не поняли что я сказал. Я говорил только о ограничении в рамках ИИ. Если ИИ будут ограничивать именно разумные процессы, то тогда это уже не ИИ по определению так как не пройдет даже тест Тюринга (что само по себе тоже не абсолютный показатель).

Есть собака, у её интеллекта есть потолок.
Человек - то же самое.
У ИИ тоже будет потолок. Почему вы считаете, что он будет выше собачьего?
Кстати, уже на человеке видно, что интеллект вовсе не стремится самосовершенствоваться до предела своих возможностей - почему вы требуете этого от ИИ?

>Там ни слова об этом нет. Потому что ИИ или есть, или нет, и все. Ограничивать можно возможности ИИ реализовать свой потенциал - также как и можно приковать человека к больничной койке, например. Не дать автономное питание, не дать передвигатся итд итп. Но о ограничении самого разума речь идти не может, потому что тогда это уже не ИИ.

Вы почему то считаете, что созданный ИИ сразу же будет выше, чем у человека. Я не вижу для этого никаких оснований. Допустим, сделают ИИ с уровнем собаки - не искусственно, а потому что лучше не смогут. И будут они существовать в таком состоянии вечно, никакого дальнейшего развития у такого ИИ не будет.

С уважением, Александр Солдаткичев

От Фигурант
К Александр Солдаткичев (04.01.2011 18:12:14)
Дата 04.01.2011 22:36:00

В бесконечность чего? Ну ладно, я понял почему мы не допоняли друг-друга.

Я говорил все время о ИИ как эквивалента - как минимум функционального - человеческого разума (по минимуму, проходящий тест Тюрига). Вы же говорили о другом. Понятно что так не получается. Попробую еще раз пояснить.

>>Если не понятно, повторю еще раз: интеллект человека ограничен его возможностями в рамках его вида.
>
>ИИ тоже чем-то ограничен.
Да конечно, в рамках своего "вида", т.е. версии, итерации, модели, предназначения или как там называть это будут. Я просто говорю о ИИ который настоящий И - т.е. разум на уровне человека. Запихать его в машину размером в дом - он будет ограничен так и этак, запихать в дроида - будет ограничен чем-то другим итд. Но если это искуственный интеллект который НЕ ограничен главным ограничением человека, т.е. старением и выходом из строя мыслительных процессов во времени, то он по этому параметру уже будет выше чем человек, так как опыт, навыки, внутреннее самосознание, познавание итд. не ограничено временными рамками как чел. жизнь. И эволюция получится автоматом. Поначалу с нашей помошью, конечно, или даже в наше благо.

>Есть собака, у её интеллекта есть потолок.
>Человек - то же самое.
Ну именно это и я говорил с самого начала.... Вы продолжайте рассуждать в рамках одного вида. Собака тест Тюринга не пройдет никогда.

>У ИИ тоже будет потолок. Почему вы считаете, что он будет выше собачьего?
А кому нужен такой ИИ который на уровне собаки, если уже есть собаки? Я же говорил что я понимаю под ИИ, т.е. классическое определение. Вы говорите что у меня нету верхней планки (где-то это правда, так как я исхожу из того, что эволюция ИИ будет порождать новые и новые виды ИИ), но у вас нету нижней :) Если уж собака у вас подходит под цель ИИ, то почему не амеба? Амебоидное ИИ тоже будем считать интеллектом? :)))

>Кстати, уже на человеке видно, что интеллект вовсе не стремится самосовершенствоваться до предела своих возможностей - почему вы требуете этого от ИИ?
Потому что, как я уже говорил в моем первом ответе, человек ограничен своим видом - гомо сапиенс. При этом мы не знаем границы неврологического развития даже гомо сапиенса - может они уже достигнуты давно, а может совсем нет. Но дело не в этом - ИИ это во 1-х другой вид, во 2-х это будет каждый раз другой вид. Каждый будет ограничен параметрами своего вида, но не эволюцией. Также как и первые гоминиды были ограничены, и гомо сапиенс ограничен, взятые в отдельности, но эволюция налицо. А раз ИИ искуственный, то эволюция у него тоже не будет подчинятся законам передачи генного кода и все (может) пойти быстрее :))

>Вы почему то считаете, что созданный ИИ сразу же будет выше, чем у человека. Я не вижу для этого никаких оснований.
Ну кому нужен тогда такой ИИ? Что в нем интеллектуального? Это будет просто бот, или ваша же механическая собачка или горилла. Тогда смысла никакого нет говорить о ИИ.


От Ibuki
К Фигурант (04.01.2011 22:36:00)
Дата 04.01.2011 23:07:33

Re: В бесконечность...

>Ну кому нужен тогда такой ИИ? Что в нем интеллектуального? Это будет просто бот, или ваша же механическая собачка или горилла. Тогда смысла никакого нет говорить о ИИ.
Да Вы что!? Военные с руками оторвут такого бота на роль операторов боевых машин, который пройдет "ограниченный" тест Тьюринга с использованием в качестве контрольной группы отличников боевой и политической подготовки.

Самый парадокс, что не прохождение слепого теста ботом может быть даже лучше для потребителя. Я имею в виду, что если цикл "обнаружение-идентификация-поражение" бота будет многократно короче человеческого это выдаст его с головой на "слепом" тесте, но при этом будет только в плюс боту. Парадокс. Не интеллект в классическом понимании, но лучше интеллекта.

От Фигурант
К Ibuki (04.01.2011 23:07:33)
Дата 04.01.2011 23:16:54

Да я же не говорил что боты не нужны. Еще как. Но просто это не ИИ.

>Парадокс. Не интеллект в классическом понимании, но лучше интеллекта.
Да нету тут парадокса, все есс-но. Спецализированную задачу лучше решает специалист, в данном случае девайс заточенный под конкретную задачу. Тот же комп заточенный под шахматы победит Каспарова. Однако это не значит что это каким-то боком относится к ИИ. ИИ пойдет на выборы против Каспарова и победит :)


От Ibuki
К Фигурант (04.01.2011 23:16:54)
Дата 04.01.2011 23:38:36

Re: Да я...

>Да нету тут парадокса, все есс-но. Спецализированную задачу лучше решает специалист, в данном случае девайс заточенный под конкретную задачу. Тот же комп заточенный под шахматы победит Каспарова. Однако это не значит что это каким-то боком относится к ИИ. ИИ пойдет на выборы против Каспарова и победит :)

Ну так программа проходящая классический тест Тьюринга тоже может решать только конкретную задачу. А не все многообразие человеческой деятельности. Не распознавать или синтезировать речь, не играть в шахматы и не ходить на выборы.

"Слепой" тест, когда скажем на учениях 1 танк из 10 управляется ботом, и нет никакой возможности у наблюдающих со стороны отличить его поведение от управляемых людьми вполне укладывается в дух теста Тьюринга.

Или тест Тьюринга не годится? А что тогда годится?

От Фигурант
К Ibuki (04.01.2011 23:38:36)
Дата 04.01.2011 23:45:33

Re: Да я...

>Или тест Тьюринга не годится? А что тогда годится?
для полноценного ИИ (т.е. равного человеку) тест Тюринга не годится, это выяснили уже давно (о китайской комнате я уже упоминал). Как тестировать именно разум в смысле самосознания - это уже высокая философия :)
Ну и конечно вы говорите просто о хорошем боте. И такие уже существуют в бесчисленных ипостасях - начиная с калькулятора :) Он тоже заложен под задачу, которую человек может выполнить, и выполняет ее гораздо лучше и быстрее. И так далее итп вплоть до БПЛА :) И конечно их надо больше и лучше :)

От Игорь Абрамов
К Лейтенант (04.01.2011 12:30:29)
Дата 04.01.2011 12:49:53

ИТ и электроника тут дает интересный пример саморазвития.

По крайней мере с 70х годов, результаты развития компьютеров микроэлектроники и смежных отраслей в очень немалой степени использовались для саморазвития технологии. Грубо говоря, компьютереы проектировали компьютеры (равно как и на заре машиностроения машины стали делать машины и это дало технологический рывок.).

От sergе ts
К Фигурант (04.01.2011 02:08:24)
Дата 04.01.2011 08:45:31

"более высокий и развитый разум"-У нас правят не Перельманы а Буши с Ельцинами (-)


От Фигурант
К sergе ts (04.01.2011 08:45:31)
Дата 04.01.2011 15:21:53

Вы сравнивайте представителей одного вида. Я же совсем о другом. (-)


От Лейтенант
К sergе ts (04.01.2011 08:45:31)
Дата 04.01.2011 12:33:48

А с чего Вы решили, что Перельман умнее чем Буш с Ельциным?

У них просто специализация разная.

От sergе ts
К Лейтенант (04.01.2011 12:33:48)
Дата 05.01.2011 12:32:09

Ну и получите руководящий ИИ который нажравшись в стельку белого шума

будет дирижировать оркестром, путать Боливию с Бразилией, и ронять собственный процессрный блок со стойки случайно введя в резонанс кондиционеры со спикерами. Потому что он руководит и физика с географией не его специализация.

От NV
К Лейтенант (04.01.2011 12:33:48)
Дата 04.01.2011 14:20:47

Да, пример академика Сахарова показателен

в политике - полное дитя. К тому же внешне управляемое.

Виталий

От Пехота
К Booker (03.01.2011 15:49:27)
Дата 03.01.2011 16:50:54

Напомните, пожалуйста

Салам алейкум, аксакалы!
>>А если мы не предвидим всех последствий? А если мы переоцениваем одни последствия и недооцениваем другие?>
>
>Не, это не катит. Мы для любого действия не предвидим всех последствий, шож теперь, застыть в неподвижности?

... в литературе пример мирного сосуществования естественного и искусственного интеллекта. Только настоящего искусственного интеллекта, а не технологического решения на уровне бортового компьютера КА.

Все вышесказанное усугублялось отвратительной организацией.

От Cat
К Пехота (03.01.2011 16:50:54)
Дата 04.01.2011 14:27:10

"Двухсотлетний человек" :) (-)


От Пехота
К Cat (04.01.2011 14:27:10)
Дата 04.01.2011 23:53:09

При всём уважении, "Двухсотлетний человек" это сказка для девочек. (-)


От sergе ts
К Пехота (03.01.2011 16:50:54)
Дата 04.01.2011 08:43:38

Читайте серию "Культура" Банкса - одного из лидеров совр НФ (-)


От Лейтенант
К sergе ts (04.01.2011 08:43:38)
Дата 04.01.2011 12:28:32

Там ЕИ у ИИ на положении "домашних любимцев"

Им об этом в открытую не говорят, но все настолько очевидно, что единственная конкурирующая по силе цивилизация ведет войну с Культурой на уничтожение именно по мотивам "не хотим порабощения ИИ". И проигрывает, кстати.
Единственное что как-то скрашивает ситуацию - это то что некоторые ИИ друг друга откровенно в гробу видели.

От СБ
К Лейтенант (04.01.2011 12:28:32)
Дата 04.01.2011 14:30:41

Re: Там ЕИ...

>Им об этом в открытую не говорят, но все настолько очевидно, что единственная конкурирующая по силе цивилизация ведет войну с Культурой на уничтожение именно по мотивам "не хотим порабощения ИИ". И проигрывает, кстати.
Конкурентов по силе там хватает. Просто они либо замкнуты на себе, либо затевать галактическую войну с отморозками, когда обе стороны могут отстраивать военную инфраструктуру с нуля до выдачи на-гора новых флотов максимум за недели, никому особо не хочется.

А в остальном верно. Весь секрет успеха Культуры - в принятии автором того, что ИИ (в подавляющей массе) будет добрым хозяином за аксиому мира.

От vladvitkam
К СБ (04.01.2011 14:30:41)
Дата 04.01.2011 22:08:30

Re: ну, ежели как аксиому...


> А в остальном верно. Весь секрет успеха Культуры - в принятии автором того, что ИИ (в подавляющей массе) будет добрым хозяином за аксиому мира.

ИИ люди просто пофиг.
Это вообще интересный вопрос - что не пофиг ИИ?
Ответа я не знаю

Все, что не пофиг людям (и что пофиг - тоже) - прямо или косвенно основывается на их животной природе.
А ИИ-то - не животное

От Фигурант
К vladvitkam (04.01.2011 22:08:30)
Дата 04.01.2011 22:40:45

Re: ну, ежели

>Это вообще интересный вопрос - что не пофиг ИИ?
Посмею предположить что ИИ не будет пофиг ИИ :) А то какой-то странный разум получится :) Ну м.б. конечно у ИИ тоже будет депрессии и состояние где все пофиг :)

>Все, что не пофиг людям (и что пофиг - тоже) - прямо или косвенно основывается на их животной природе.
>А ИИ-то - не животное
Но оно создано человеком (допустим). Которое, если построит его по схеме индивидуального (а не коллективного, скажем, ну и куча вариантов) разума, внесет сам туда запретный райский плод и базовые инстинкты индивидуальности :)

От vladvitkam
К Фигурант (04.01.2011 22:40:45)
Дата 04.01.2011 23:03:01

Re: ну, ежели


>>Все, что не пофиг людям (и что пофиг - тоже) - прямо или косвенно основывается на их животной природе.
>>А ИИ-то - не животное
>Но оно создано человеком (допустим). Которое, если построит его по схеме индивидуального (а не коллективного, скажем, ну и куча вариантов) разума, внесет сам туда запретный райский плод и базовые инстинкты индивидуальности :)

поведение человека, помимо инстинктов и внедренных программ (воспитанием семьей, школой, улицей, армией...) определяется еще и гормонами и прочей биохимией (в деталях не разбираюсь). Похоже на то, что все это в комплексе толком еще не понято. И что получистя из ИИ (в смысле - достаточно навороченного, в реальной жизни), я предсказывать не берусь

От Коля-Анархия
К Пехота (03.01.2011 16:50:54)
Дата 03.01.2011 22:00:27

луна жестко стелет (-)


От Hokum
К Коля-Анархия (03.01.2011 22:00:27)
Дата 04.01.2011 05:16:05

Re: луна жестко...

Тогда уж "Достаточно времени для любви" (Time Enough For Love - Минерва, Афина, Дора) и "Число зверя" (The Number Of The Beast - Gay Deceiver) того же автора :)

От KGBMan
К Пехота (03.01.2011 16:50:54)
Дата 03.01.2011 20:14:51

Re: Напомните, пожалуйста

Ричард Морган "Altered Carbon" и т.д.