Отиди на
Форум "Наука"

Теорема за непълнота и ИИ


Recommended Posts

  • Потребител

Хайде да поспорим малко и за това дали известната теорема на Курт Гьодел за непълнота може да бъде приложена като аргумент срещу силното направление в Изкуствения Интелект.

Давам една бърза формулировка на двете теореми за тези които не са запознати с тях:

Теорема 1) Всяка формална аксиоматична система, над която могат да се извършват основните аритметични операции не може да бъде едновременно пълна и непротиворечива. Иначе казано може да бъде конструирано ( Гьоделовото ) твърдение, чието доказателство или не може да бъде изведено от самата система макар че то е вярно или е едновременно вярно и невярно в системата. В първия случай теоремата е непълна а във втория противоречива.

Теорема 2) В рамките на всяка непротиворечива формална аксиоматична система, над която могат да се извършват основните аритметични операции е невъзможно да се докаже непротиворечивостта й.

От публикуването на теорията през 1931 г. до сега са давани много мнения по този повод. Най-изветсния опит за "атака" срещу силния лагер в ИИ е може би този на Роджър Пенроуз. Накратко идеята е следната: Нека човешкият разум е изоморфен на изчислителна машина. За тази машина теоремите на Гьодел са в пълна сила следователно съществува твърдение което е недуказуемо в рамите на системата ( не може да бъде изведено от машината ) , но човекшкият разум може да го изведе. Иначе казано Гьоделовата формула никога не може да бъде изведена от машина за разлика от човека.

Споделете и вашите мнения по въпроса.

Link to comment
Share on other sites

  • Потребители
Хайде да поспорим малко и за това дали известната теорема на Курт Гьодел за непълнота може да бъде приложена като аргумент срещу силното направление в Изкуствения Интелект.

Не е необходимо да стигаме да примери на това, кое може да се докаже и кое не. Всъщност, всички практически опити за реализиране на универсална система за ИИ са се оказали пълен провал. Неуспешни са се оказали и опитите за имитиране на човешкото мислене.

Именно затова ИИ сега се развива по малко по-различен начин: Атакува се точно конкретна предметна област, като методите за извод не целят имитация на човешко мислене, а получаване на приблизително същите резултати, като тези от човека (използвайки най-различни методи).

Link to comment
Share on other sites

  • Администратор

Поради смяната на сървъра има загубени данни и прехвърлям част от загубеното. За това се извинявам Georgiev.

Разбира се, съществуват много спорове за това какво представлява и обхващя ИИ. Към този момент в ИИ доминират две направления - силно и слабо. Задачата на силното е да се разбере и моделира процеса на разумното мислене. Слабото направление е това което ти споменаваш като ИИ в момента. Вярно е, че по настоящем то има несравнимо по сериозен напредък и приложение от силното, но все пак това направление съвсем не е изоставено - тъкмо напротив. Не мисля, че в момента е правинло изкуствения интелект да се отъждествява само с едното направление, най-малко пък със слабото. А въпросът за това дали човешкият разум е изоморфен на изчислителен процес е един от централните тук.

Разбирам, че това е тема която все още е много далеч от всякакво практическо приложение и по скоро е повод за теоретичен дебат, но все пак нали форумът не е само за weak AI.

Link to comment
Share on other sites

  • Потребители
Разбирам, че това е тема която все още е много далеч от всякакво практическо приложение и по скоро е повод за теоретичен дебат, но все пак нали форумът не е само за weak AI.

Всъщност това не е форум по програмиране, което означава че няма нужда да се показва практическо приложение. По-важното е да се запазва интереса на читателите - разработването практическо приложение е един от начините. Друг начин е, представянето и дискутирането на някоя теорема (не особено сложна за да я разберат читателите) с доказателство, или поне частично такова.

Link to comment
Share on other sites

  • Потребител

Друг начин е, представянето и дискутирането на някоя теорема (не особено сложна за да я разберат читателите) с доказателство, или поне частично такова.

Страхотно значи можем да продължим дискусията за Гьодел или по-скоро да я започнем :) .

Теоремата на Гъодел която съм изложил е напълно разбираема дори и за човек без математическа култура. А да се оспорва значението и е напълно немислимо. Това е може би най-известното математическо събитие на миналия век ( Гьодел е сравняван с Айнщаин на математиката ) . А дискусията за приложението и в ИИ е занимавала и занимава всички сериозни изседователи в тази област.

Link to comment
Share on other sites

  • Потребители
Страхотно значи можем да продължим дискусията за Гьодел или по-скоро да я започнем.

Добра идея, но ще е добре да е в отделна тема. Един друг интересен за обсъждане изследователски въпрос е свързан горо-долу с тази тематика е следният:

Доказано е, че не може да се направи програма, която проверява дали при пускането на дадена програма последната ще зацикли и никога няма да приключи, или ще премине в крайно състояние. Подобен проблем има и в математическата логика, т.е. че не винаги има начин за проверка за изпълнимост на логически израз с квантори.

Задачата, която предлагам за изследване е свързана с намирането на възможно най-малката програма, за която да не можем да определим дали ще цикли или ще спре.

Като пример ще дам великата теоремата на Ферма. Можем да напишем програма, която обхожда всички четворки естествени числа (x,y,z,n>2) и ако се получи, че x^n+y^n=z^n то програмата спира. Ясно е, че ако теоремата на Ферма е вярна, то програмата ще цикли, докато иначе ще спире някога.

Този пример не е особено подходящ, защото се използват аритметични действия, които не се реализират тривиално от логическа гледна точка (компютрите го правят лесно, защото имат специални схеми, които извършват това), т.е. съответната програма ще е доста дълга. Това, че вече теоремата на Ферма е доказана е друг въпрос...

Link to comment
Share on other sites

  • 1 year later...
  • Потребител

Да си призная не разбрах особено много от написаното ,но аз си имам способността да хващам поне основното ако ми е мъгла :D , от първия пост ето какво разбрах (1) и ето моето опровержение (2) :

1. Като цяло като имаме х=2у колкото и да въртим и да сучем ще получим все еквивалентни неща ,както и ако имаме някакви твърдения ,от които може да се извлече точно ограничена логика - затворена система ,над която използваме прости аритметични действия .

2. Нито човешкия нито изкуствения интелект са затворени системи и ако мислим на компютъра като на чисто изчислителна машина трябва да отчетем ,че той е много подобен на човешкия мозък (до колкото знаем за него) - къса,дълга памет,процесор (под къса разбирам рам-а ,не съм съвсем запознат с действието на машината ,но така общо казано ..) и както него приема ,обработва и съхранява разнообразна информация и на теория ако един компютър получава и притежава информация еквивалентна на тази в човешкия мозък с правилно програмиране той може да извади същото количество изводи (2 отворени за един и същи поток информация системи при каквито и да е приложени аритметични операции ще имат еквивалентен потенциал).

Ако нещо съм объркал в терминологията или значенито на теоремата ще се получи малко кофти ,но и такива рискове се поемат :) .

Link to comment
Share on other sites

  • 2 years later...
  • Потребител

Здравейте,

Бихме желали да зададем няколко въпроса, за които не сме убедени, че са напълно свързани с конкретната тема.

От чисто математическа гледна точка въпросите са по-близки до тези за автоматично доказване на теореми.

Най-общо нещата се свеждат до това дали ако имаме някаква теория, всяко предположение обвързано с теорията може да се разглежда като теорема доказваща или отхвърляща конкретната теория (и това ако не е рекурсивно мислене, здраве). :unsure:

Забележка: Приемаме аксиомите за частен случай на теоремите, при който доказването е лишено от смисъл, защото е очевидно (за нас, не за машината).

Ако не грешим през 70-те Фишер, Рабин и Майер забелязват, че теореми които могат да бъдат решени по елементарен начин върху лист хартия са непосилни за изчислителните машини, поради огромният брой итерации (стъпки, изчислителни операции), които трябва да извършат за да ги докажат.

И ето първия въпрос:

Съществуват ли многочлен P(x) и детерминиран алгоритъм, който за не повече от p(n) на брой изчислителни операции за всяка произволно взета формула, но с n на брой набор от символи (за формулата) да провери дали формулата няма да доведе до безкрайно повторение на изчислителните процеси?

От гледна точка на теорията на графите, комбинаториката, изчислителната математика, математическото програмиране и др. въпросът има точно и ясно решение. И така възниква вторият въпрос:

Не е ли по-важно да се формулира една теория отколкото да се проверява до колко тя е вярна или не е?

Какъв е характерът на генериране на конкретна теория, обвързана със заобикалящия ни свят?

Интелекта е креативен и той генерира теории. Теориите са резултат от наблюдения на обективно съществуващи явления и процеси и последващи анализи.

И стигаме до въпрос номер три:

Как машината ще генерира теория и въз основа на какво?

Няма ли теорията да се базира на субективния характер на въведената в машината информация?

Ако отговорът на тези въпроси е "Да" то теоремата на Гьодел е в частично, а не в пълно противоречие, на силното направление. А ако е "Не"? :Oo:

Link to comment
Share on other sites

  • Потребители
Съществуват ли многочлен P(x) и детерминиран алгоритъм, който за не повече от p(n) на брой изчислителни операции за всяка произволно взета формула, но с n на брой набор от символи (за формулата) да провери дали формулата няма да доведе до безкрайно повторение на изчислителните процеси?

Тук не разбрах какво се пита. За NP-пълни задачи ли говорим. Там нещата са ясни, че отговор за момента няма.

Не е ли по-важно да се формулира една теория отколкото да се проверява до колко тя е вярна или не е?

Ами по принцип това е важно, че и хората в математиката формулират ли формулират всевъзможни теории, започвайки от най-разнообразни абстрактни модели като начало. Като пример са геометриите - проективна геометрия; Евклидова геометрия; диференциална геометрия; крайни геометрии и т.н. Математическият анализ също си има своите аксиоми, които всъщност могат да се разглеждат като теореми, ако се базираме на аксиоматиката на теорията на множествата. Само една физическа дисциплина, обаче, не се подчиняма на аксиоматиката на теорията на множествата (не помня името й, обаче).

Как машината ще генерира теория и въз основа на какво?

Машината, както и човека може да генерира теория, въз основа на евристични разсъждения. Например на машината й се дават много картинки и филмчета на нещо и тя от тях да направи извод за някои физични закони. Това, обаче, не се прави поради една елементарна причина. Както споменатите "Фишер, Рабин и Майер" са забелязали, то и до днес компютрите не могат да решават достатъчно сложни (математически формулирани) твърдения. Дори и да изградят някаква "теория", то от нея няма да могат да изведат нищо, включително така да проверят дали теорията им е тривиално грешна.

Link to comment
Share on other sites

  • 3 years later...
  • Потребител

Човешкото мислене се състои от логически грешки плюс подчинено на тях вярно логическо мислене.

Как мисли човек

1. Приема за верни по нелогичен път (избор) дадени истини (вярва в неща, които не може да докаже). Допуска логически грешки.

2. Подчинява се чрез вярно логическо мислене на приетите в точка 1 истини.

Как мисли компютъра

Подчинява се чрез вярно логическо мислене на заложените в програмата истини. Не може като човека да допуска логически грешки.

За да отговаря дадена програма на човешкото мислене, тя трябва да може да допуска свои собствени умишлени логически грешки. Трябва да може сама, по свое усмотрение да променя заложената от програмиста логика с друга, като сама пише и изменя програмния си код. Трябва да има интуиция.

Заради това предполагам, че опитите със създаването на изкуствен интелект се провалят. Тъй като е невъзможно да се програмира интуиция. Не може да се програмира свободен избор на логика. Не може да се напише програма, която сама по свое усмотрение да си променя логиката, като сама си пише нова логика по свой избор.

За да може компютъра да мисли като човек, трябва да може да извършва логически грешки, като по този начин да осъзнава ограниченията на заложената в програмата логика, и по свой избор да променя тези логически ограничения с други, които сам той (компютърът) си избере.

Редактирано от mecho1
Link to comment
Share on other sites

  • 2 years later...

Напиши мнение

Може да публикувате сега и да се регистрирате по-късно. Ако вече имате акаунт, влезте от ТУК , за да публикувате.

Guest
Напиши ново мнение...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Зареждане...

За нас

"Форум Наука" е онлайн и поддържа научни, исторически и любопитни дискусии с учени, експерти, любители, учители и ученици.

За своята близо двайсет годишна история "Форум Наука" се утвърди като мост между тези, които знаят и тези, които искат да знаят. Всеки ден тук влизат хиляди, които търсят своя отговор.  Форумът е богат да информация и безкрайни дискусии по различни въпроси.

Подкрепи съществуването на форумa - направи дарение:

Дари

 

 

За контакти:

×
×
  • Create New...