dc.contributor |
Reykjavik Univeristy |
dc.contributor |
Háskólinn í Reykjavík |
dc.contributor.advisor |
Kristinn R. Thórisson |
dc.contributor.author |
Sheikhlar, Arash |
dc.date.accessioned |
2024-10-16T15:08:40Z |
dc.date.available |
2024-10-16T15:08:40Z |
dc.date.issued |
2024-10 |
dc.identifier.isbn |
978-9935-539-40-3 |
dc.identifier.isbn |
978-9935-539-41-0 (eISBN) |
dc.identifier.uri |
https://hdl.handle.net/20.500.11815/5027 |
dc.description.abstract |
For any agent to effectively learn how to achieve its goals via interaction
with environments, it must have causal reasoning capabilities. Causal reasoning
enables an agent to predict actions’ consequences and hypothesize the
necessary conditions for taking appropriate actions. Effective mechanisms
for generalizing causal knowledge and reasoning lead to more adaptive and
autonomous artificial intelligence (AI) systems. While the topic of generalization
has extensively been researched in AI over the past few decades, the
question of which mechanisms are required to enable causality-based agents
to leverage their familiarity with tasks in order to generalize their knowledge
when trying to achieve their goals has remained to be addressed. In
this thesis, we present a cumulative learning-based generalization mechanism
that allows AI agents to use their familiarity with experienced situations to
guide their causal hypothesis generation and exploration processes, thereby
making their task planning more flexible and well-informed. The mechanism
also makes AI systems more flexible and imaginative by enabling them to
exploit both good and bad analogies to invent fresh approaches to new tasks.
Constructivism and causality serve as the primary foundations of this work’s
methodology. To validate the proposed mechanism, we have implemented
it into a general machine intelligence (GMI) aspiring control system called
Autocatalytic Endogenous Reflective Architecture (AERA) and tested it on
multiple robot learning tasks as a proof of concept. We have also compared
the extended AERA to another GMI aspiring system called Non-Axiomatic
Reasoning System (NARS) in terms of their generalizability. The mechanism
presented showcases its efficacy through empirical evidence and analytical
evaluation. |
dc.description.abstract |
Gervigreind kerfi (e. artificial intelligence systems, AI) sem eiga að ná markmiðum í fjölbreyttu umhverfi, og sem læra sjálf gegnum vélrænt nám, þurfa að tákna orsök og afleiðingu þannig að það nýtist til sjálfstæðrar hugsunar og röksemdarfærslu. Sé sú krafa uppfyllt geta kerfin fært rök fyrir afleiðingum aðgerða sinna, spáð fyrir um nauðsynlegar forstendur þeirra, og séð fyrir hvernig best sé að ná settum markmiðum. Nytsamlegar alhæfingar um orsakatengsl eru forsenda þess að gæða gervigreind kerfi sjálfstæðri aðlögunarhæfni (e. autonomy). Þótt ýmsar aðferðir til framleiðslu alhæfingarreglna
hafi verið skoðaðar í gervigreind á undanförnum áratugum er spurningunni
enn ósvarað hvernig gervigreind geti nýtt til þess eigin reynslu af orsakasamhengi
í fyrri verkefnum. Hér kynnum við aðferð fyrir alhæfingagerð í vélrænu námi sem gerir gervigreind kleift að nota uppsafnaða þekkingu sína til að spinna nýjar orsakatilgátur og sannreyna þær með skipulagðri íhlutun við umhverfið. Aðferðin gerir gervigreind kerfi betur í stakk búin að aðlagast nýjum aðstæðum og nýta betur þekkingu í nýjum verkefnum. Aðferðin gerir gervigreindarkerfi sveigjanlegri og hugmyndaríkari með því að leyfa þeim að
nýta bæði góðar og slæmar samlíkingar og myndlíkingar til að finna upp nýjar aðferðir við verkefni. Aðferðin á rætur að rekja til hugsmíðahyggju (e. constructivism) og sjálfstæðrar táknunar orsakasamhengis (e. autonomus generation of causal knowledge). Til að sannreyna aðferðina höfum við innleitt það í kerfi sem er hluti af rannsóknum á alhliða gervigreind (e. general machine intelligence/artificial general intelligence) og kallast Autocatalytic Endogenous Reflective Architecture (AERA). Sýnt er hvernig aðferðin virkar
í nokkrum verkefnum. Þá er AERA borin saman við Non-Axiomatic Reasoning System (NARS) hvað varðar alhæfingargetu, þar sem hugmyndafræðilegur grunnur NARS er vel fallinn til slíks samanburðar. Aðferðin og virkni hennar er metin með bæði empírískum og analýtískum hætti. |
dc.language.iso |
en |
dc.rights |
info:eu-repo/semantics/openAccess |
dc.subject |
General Machine Intelligence, Artificial general intelligence, Causality, Generalization, Knowledge Representation, Autonomy, Reasoning |
dc.subject |
Artificial intelligenc |
dc.subject |
Machine learning |
dc.subject |
Causality (Physics) |
dc.subject |
Generalization |
dc.subject |
Knowledge representation (Information theory) |
dc.subject |
Autonomy |
dc.subject |
Reasoning |
dc.subject |
Gervigreind |
dc.subject |
Vélrænt nám |
dc.subject |
Orsakatengsl |
dc.subject |
Reiknirit |
dc.subject |
Röksemdafærsla |
dc.title |
Autonomous causal generalization |
dc.title.alternative |
Algrím fyrir alhæfingar um orsakasambönd |
dc.type |
info:eu-repo/semantics/doctoralThesis |
dc.contributor.department |
Department of Computer Science (RU) |
dc.contributor.department |
Tölvunarfræðideild (HR) |
dc.contributor.school |
School of Technology (RU) |
dc.contributor.school |
Tæknisvið (HR) |