![]() |
|
|
Регистрация Восстановить пароль |
Регистрация | Задать вопрос |
Заплачу за решение |
Новые сообщения |
Сообщения за день |
Расширенный поиск |
Правила |
Всё прочитано |
![]() |
|
|
Опции темы | Поиск в этой теме |
![]() |
#1 |
Старожил
Регистрация: 31.05.2010
Сообщений: 13,543
|
![]()
Много раз, на этом форуме, поднималась тема "искуственного интеллекта".
Это заставило меня задуматься, а правдали он так опасен? Боюсь не оправдать чаяния фантастов-фаталистов, но нет. Сам по себе ИИ, никакой опасноси, для человечества не представляет. Опасность, предствляет человек, сам для себя. Не будем говорить о милитаристьских планах применения ИИ (отдельная тема). Предположим, что мы создали ИИ, способный решать проблемы юрирдического плана (морально-этические, оставим в стороне). В отличии от SETI, здесь проблема другого порядка. Надеясь на ИИ, люди, ввиду своей лени, начнут на него опираться в своих суждениях. ИИ, об этом может знать, может не знать, но вынесенное, им, суждение в 99% будет правильным (или прибижённым к правильности). Я это к чему? Человек, и так уже подчиняется "монстрам", которых сам и создал. Инет, мобильная связь... На повестке дня (спорно), полёты экспедиций к другим планетам. Если не вдаваться в фатализм и не считать ИИ за врага, то что-бы он ещё смог породить?
Пиши пьяным, редактируй трезвым.
Справочник по алгоритмам С++ Builder Последний раз редактировалось Smitt&Wesson; 26.03.2013 в 08:37. |
![]() |
![]() |
![]() |
#2 |
добрый няша
Старожил
Регистрация: 29.10.2006
Сообщений: 4,804
|
![]()
Например, есть робот с интелектом достаточным чтобы с 99% отличить одного человека от другого. Его задача вытирать задницу и кормить человека. Восстания не будет. Аналогично с боевым роботом способным отличить своего солдата от вражеского, понимать словесные приказы. Ты ему говоришь "убей вот того", он пойдёт и убьёт, "держи позицию до последнего" он будет держать позицию. Восстания и в этом случае не будет.
ИИ должен быть исполнителем, в этом случае ничего не произойдёт. В этом случае мы получаем в распоряжение что-то вроде пистолета, он является инструментом для решения задач человека. Все сценарии с восстанием машин созданы людьми совершенно не знающими матчасть. |
![]() |
![]() |
![]() |
#3 |
Старожил
Регистрация: 31.05.2010
Сообщений: 13,543
|
![]()
Предисловие, я затёр. Вот именно. Если робот предназначен, подтирать зад, он это и будет делать. Вопрос об ИИ. Т.е. Самообучающейся системе. Может, в предыдущем посте, несколько сумбурно выразился, но, если ИИ настроен на подтирание Ж..., оружие в захваты, он не возмёт.
Пиши пьяным, редактируй трезвым.
Справочник по алгоритмам С++ Builder |
![]() |
![]() |
![]() |
#4 |
Старожил
Регистрация: 30.12.2009
Сообщений: 11,434
|
![]()
Роботы не будут угрозой, пока не могут думать сами и предпринимать альтернативный и не стандартные решения, или пока они не начнут думать за нас.
|
![]() |
![]() |
![]() |
#5 |
Форумчанин
Регистрация: 21.04.2012
Сообщений: 792
|
![]()
если это будет ИИ, то это значит, что роботы вполне могут самообучаться, точнее, без помощи людей, начнут существовать самостоятельно. Для этого он и является ИИ. А если ИИ увидит угрозу в человеке?
Талантливыми не становятся, а рождаются
|
![]() |
![]() |
![]() |
#6 |
Старожил
Регистрация: 31.05.2010
Сообщений: 13,543
|
![]()
Так и я о том-же. Но, вопрос не в роботах (андроидах). Вопррс в классическом понимании ИИ. Моё ИМХО, - ИИ, это некая база знаний (от базы данных отличается тем, что постулаты неоднородны), которую человек и сформировал. Значит она и будет выражать стремления и чаяния её создателей (опять-же милитаризм в рассмотрение не берём (хотя, х.. знает)).
Пиши пьяным, редактируй трезвым.
Справочник по алгоритмам С++ Builder Последний раз редактировалось Smitt&Wesson; 26.03.2013 в 08:39. |
![]() |
![]() |
![]() |
#7 | |
Старожил
Регистрация: 08.04.2012
Сообщений: 3,229
|
![]() Цитата:
Нет свободы выбора - нет интеллекта. Ты ему говоришь "убей вот того", он решает, что убивать негуманно, и отказывается выполнять приказ. Ты ему говоришь "держи позицию до последнего", ав он решает, что это противоречит его функции самосохранения. Интеллект, понимаешь! В общем, нужно определиться, говорим мы об идеальном исполнитее или об ИИ - это не обно и то же. |
|
![]() |
![]() |
![]() |
#8 |
Старожил
Регистрация: 30.12.2009
Сообщений: 11,434
|
![]()
Пока не поймем как работает наш мозг, не сможем создать ИИ который будет самостоятельно воспринимать мир, адаптироваться и мыслить самостоятельно.
Когда мы будим это уметь, найдется 1000 причин, почему мы не нуждаемся в ИИ. Не зачем создавать ИИ способный полноценно мыслить. Вот к примеру, была бы полезна система управления на дороге аля из фильма "Я робот"(если кто помнит такой), где компьютер сам рулит на дороге безопасно перевозя пассажира из точки А в точку Б, быстро, без аварий, на высокой скорости. Сейчас такое есть, но в малых маштабах(система доставки рукописных писем, бандероллей) for example. Или же система ИИ, которая не допускала бы опасных ситуаций для авиа-самолетов в воздушном пространстве, раньше было только радио, т.е. пилоты полностью слепые, сейчас GPRS + Спутник и все шикарно, но не фонтан. ИИ регулирования мировой экономики бы... ![]() Последний раз редактировалось Человек_Борща; 25.03.2013 в 22:40. |
![]() |
![]() |
![]() |
#9 |
Форумчанин
Регистрация: 21.04.2012
Сообщений: 792
|
![]()
только инопланетяне могут вполне создать ИИ, а не человек
![]() ![]()
Талантливыми не становятся, а рождаются
|
![]() |
![]() |
![]() |
#10 | |
Недо
Участник клуба
Регистрация: 11.08.2011
Сообщений: 1,394
|
![]() Цитата:
С помощью программирования можно разбогатеть и изменить мир к лучшему (с) Бьерн Страуструп
|
|
![]() |
![]() |
![]() |
|
![]() |
||||
Тема | Автор | Раздел | Ответов | Последнее сообщение |
Теги, поиск и иже с ними | ManU | PHP | 3 | 19.03.2013 20:16 |
auto_ptr (и иже с ним) | Yacudzer | Общие вопросы C/C++ | 1 | 04.07.2012 17:40 |
коллекции, деревья и иже с ним с или с++ | elris | Фриланс | 4 | 06.10.2011 13:53 |
Combobox и иже с ним | Bezdar | Microsoft Office Excel | 1 | 24.06.2010 16:58 |
Combobox и иже с ним | Shawn | Компоненты Delphi | 7 | 13.12.2007 18:15 |