Каковы шансы создания настоящего искусственного интеллекта, который будет воспринимать себя как личность?
Люди иногда задают самые странные и неожиданные вопросы… Но находятся другие люди, которые могут или пытаются на них ответить, исходя из своего опыта и знаний. Нам кажется, вам могут быть интересны как вопросы, так и ответы. Поэтому мы некоторое время тому назад и предложили вам эту рубрику. Если у вас есть свой ответ на публикуемый […]
Люди иногда задают самые странные и неожиданные вопросы… Но находятся другие люди, которые могут или пытаются на них ответить, исходя из своего опыта и знаний. Нам кажется, вам могут быть интересны как вопросы, так и ответы. Поэтому мы некоторое время тому назад и предложили вам эту рубрику. Если у вас есть свой ответ на публикуемый вопрос – присылайте. Если вы хотите задать вопрос – мы его опубликуем и посмотрим, сможет ли и захочет ли кто-то ответить. Пишите на js@kstati.net
Роман ЖУКОВ
программист, философ
Полностью искусственный интеллект будет считать себя индивидуальной единицей, когда ему привьют эту черту и он будет способен понимать смысловую нагрузку речи. Пока что (насколько я знаю) машина не умеет понимать конкретно смысл слов, как это делаем мы, а может только отслеживать группировку с другими словами по тем или иным критериям. Условно говоря, она может подобрать синоним, но вольную речь распознать и выработать ответную реакцию она не способна.
Её, как отмечал человек выше, нужно учить. Впоследствии она может самокорректироваться, но и эти корректировки нужно отслеживать. Для построения достаточно сложной и правильно работающей системы.
Майк ОСИНЦЕВ
переводчик-любитель
Интеллект не возникает как готовая фиксированная система. Ребенок развивается, обучается, приобретает собственный опыт. Сюда входит, в первую очередь, физический контакт с окружающим миром. Если дать машине готовую информацию\алгоритм, это не будет разумное существо, потому что не был пройден выше описанный процесс. А причина, по которой машина не станет разумной, в том, что у нее нет собственной мотивации. У животных и человека есть хорошая причина для того, чтобы учиться – выживание. А машине абсолютно все равно, следовательно, она не будет учиться ни при каких обстоятельствах. Можно создать видимость, даже алгоритм, позволяющий собирать новую информацию, но это будет навязано извне. У машины нет мотивации развиваться и прогрессировать. Следовательно, нет ИИ (искусственного интеллекта).
Я вспомнил интересную новость. В США на сайте использовали бота, который отвечал людям, используя образцы сообщений самих пользователей сайта. И когда бот начал ругаться матом и обзывать афроамериканцев, составители программы запаниковали и приостановили программу. Мой вопрос: разве интеллект не должен научиться тому, что есть хорошо и что есть плохо, совершая собственные ошибки? Почему программе не объяснили, что есть плохие слова? В эту программу даже не заложили «сомнение», желание узнать, можно ли так говорить и почему. А в новости программу называли ИИ – большое преувеличение.