Каковы шансы создания настоящего искусственного интеллекта, который будет воспринимать себя как личность?

Share this post

Каковы шансы создания настоящего искусственного интеллекта, который будет воспринимать себя как личность?

Люди иногда задают самые странные и неожиданные вопросы… Но находятся другие люди, которые могут или пытаются на них ответить, исходя из своего опыта и знаний. Нам кажется, вам могут быть интересны как вопросы, так и ответы. Поэтому мы некоторое время тому назад и предложили вам эту рубрику. Если у вас есть свой ответ на публикуемый […]

Share This Article

Люди иногда задают самые странные и неожиданные вопросы… Но находятся другие люди, которые могут или пытаются на них ответить, исходя из своего опыта и знаний. Нам кажется, вам могут быть интересны как вопросы, так и ответы. Поэтому мы некоторое время тому назад и предложили вам эту рубрику. Если у вас есть свой ответ на публикуемый вопрос – присылайте. Если вы хотите задать вопрос – мы его опубликуем и посмотрим, сможет ли и захочет ли кто-то ответить. Пишите на js@kstati.net

Роман ЖУКОВ

программист, философ

Полностью искусственный интеллект будет считать себя индивидуальной единицей, когда ему привьют эту черту и он будет способен понимать смысловую нагрузку речи. Пока что (насколько я знаю) машина не умеет понимать конкретно смысл слов, как это делаем мы, а может только отслеживать группировку с другими словами по тем или иным критериям. Условно говоря, она может подобрать синоним, но вольную речь распознать и выработать ответную реакцию она не способна.

384005306Её, как отмечал человек выше, нужно учить. Впоследствии она может самокорректироваться, но и эти корректировки нужно отслеживать. Для построения достаточно сложной и правильно работающей системы.

Майк ОСИНЦЕВ

переводчик-любитель

Интеллект не возникает как готовая фиксированная система. Ребенок развивается, обучается, приобретает собственный опыт. Сюда входит, в первую очередь, физический контакт с окружающим миром. Если дать машине готовую информацию\алгоритм, это не будет разумное существо, потому что не был пройден выше описанный процесс. А причина, по которой машина не станет разумной, в том, что у нее нет собственной мотивации. У животных и человека есть хорошая причина для того, чтобы учиться – выживание. А машине абсолютно все равно, следовательно, она не будет учиться ни при каких обстоятельствах. Можно создать видимость, даже алгоритм, позволяющий собирать новую информацию, но это будет навязано извне. У машины нет мотивации развиваться и прогрессировать. Следовательно, нет ИИ (искусственного интеллекта).

Я вспомнил интересную новость. В США на сайте использовали бота, который отвечал людям, используя образцы сообщений самих пользователей сайта. И когда бот начал ругаться матом и обзывать афроамериканцев, составители программы запаниковали и приостановили программу. Мой вопрос: разве интеллект не должен научиться тому, что есть хорошо и что есть плохо, совершая собственные ошибки? Почему программе не объяснили, что есть плохие слова? В эту программу даже не заложили «сомнение», желание узнать, можно ли так говорить и почему. А в новости программу называли ИИ  – большое преувеличение.

Share This Article

Независимая журналистика – один из гарантов вашей свободы.
Поддержите независимое издание - газету «Кстати».
Чек можно прислать на Kstati по адресу 851 35th Ave., San Francisco, CA 94121 или оплатить через PayPal.
Благодарим вас.

Independent journalism protects your freedom. Support independent journalism by supporting Kstati. Checks can be sent to: 851 35th Ave., San Francisco, CA 94121.
Or, you can donate via Paypal.
Please consider clicking the button below and making a recurring donation.
Thank you.

Translate »