Opin vísindi

Autonomous causal generalization

Show simple item record

dc.contributor Reykjavik Univeristy
dc.contributor Háskólinn í Reykjavík
dc.contributor.advisor Kristinn R. Thórisson
dc.contributor.author Sheikhlar, Arash
dc.date.accessioned 2024-10-16T15:08:40Z
dc.date.available 2024-10-16T15:08:40Z
dc.date.issued 2024-10
dc.identifier.isbn 978-9935-539-40-3
dc.identifier.isbn 978-9935-539-41-0 (eISBN)
dc.identifier.uri https://hdl.handle.net/20.500.11815/5027
dc.description.abstract For any agent to effectively learn how to achieve its goals via interaction with environments, it must have causal reasoning capabilities. Causal reasoning enables an agent to predict actions’ consequences and hypothesize the necessary conditions for taking appropriate actions. Effective mechanisms for generalizing causal knowledge and reasoning lead to more adaptive and autonomous artificial intelligence (AI) systems. While the topic of generalization has extensively been researched in AI over the past few decades, the question of which mechanisms are required to enable causality-based agents to leverage their familiarity with tasks in order to generalize their knowledge when trying to achieve their goals has remained to be addressed. In this thesis, we present a cumulative learning-based generalization mechanism that allows AI agents to use their familiarity with experienced situations to guide their causal hypothesis generation and exploration processes, thereby making their task planning more flexible and well-informed. The mechanism also makes AI systems more flexible and imaginative by enabling them to exploit both good and bad analogies to invent fresh approaches to new tasks. Constructivism and causality serve as the primary foundations of this work’s methodology. To validate the proposed mechanism, we have implemented it into a general machine intelligence (GMI) aspiring control system called Autocatalytic Endogenous Reflective Architecture (AERA) and tested it on multiple robot learning tasks as a proof of concept. We have also compared the extended AERA to another GMI aspiring system called Non-Axiomatic Reasoning System (NARS) in terms of their generalizability. The mechanism presented showcases its efficacy through empirical evidence and analytical evaluation.
dc.description.abstract Gervigreind kerfi (e. artificial intelligence systems, AI) sem eiga að ná markmiðum í fjölbreyttu umhverfi, og sem læra sjálf gegnum vélrænt nám, þurfa að tákna orsök og afleiðingu þannig að það nýtist til sjálfstæðrar hugsunar og röksemdarfærslu. Sé sú krafa uppfyllt geta kerfin fært rök fyrir afleiðingum aðgerða sinna, spáð fyrir um nauðsynlegar forstendur þeirra, og séð fyrir hvernig best sé að ná settum markmiðum. Nytsamlegar alhæfingar um orsakatengsl eru forsenda þess að gæða gervigreind kerfi sjálfstæðri aðlögunarhæfni (e. autonomy). Þótt ýmsar aðferðir til framleiðslu alhæfingarreglna hafi verið skoðaðar í gervigreind á undanförnum áratugum er spurningunni enn ósvarað hvernig gervigreind geti nýtt til þess eigin reynslu af orsakasamhengi í fyrri verkefnum. Hér kynnum við aðferð fyrir alhæfingagerð í vélrænu námi sem gerir gervigreind kleift að nota uppsafnaða þekkingu sína til að spinna nýjar orsakatilgátur og sannreyna þær með skipulagðri íhlutun við umhverfið. Aðferðin gerir gervigreind kerfi betur í stakk búin að aðlagast nýjum aðstæðum og nýta betur þekkingu í nýjum verkefnum. Aðferðin gerir gervigreindarkerfi sveigjanlegri og hugmyndaríkari með því að leyfa þeim að nýta bæði góðar og slæmar samlíkingar og myndlíkingar til að finna upp nýjar aðferðir við verkefni. Aðferðin á rætur að rekja til hugsmíðahyggju (e. constructivism) og sjálfstæðrar táknunar orsakasamhengis (e. autonomus generation of causal knowledge). Til að sannreyna aðferðina höfum við innleitt það í kerfi sem er hluti af rannsóknum á alhliða gervigreind (e. general machine intelligence/artificial general intelligence) og kallast Autocatalytic Endogenous Reflective Architecture (AERA). Sýnt er hvernig aðferðin virkar í nokkrum verkefnum. Þá er AERA borin saman við Non-Axiomatic Reasoning System (NARS) hvað varðar alhæfingargetu, þar sem hugmyndafræðilegur grunnur NARS er vel fallinn til slíks samanburðar. Aðferðin og virkni hennar er metin með bæði empírískum og analýtískum hætti.
dc.language.iso en
dc.rights info:eu-repo/semantics/openAccess
dc.subject General Machine Intelligence, Artificial general intelligence, Causality, Generalization, Knowledge Representation, Autonomy, Reasoning
dc.subject Artificial intelligenc
dc.subject Machine learning
dc.subject Causality (Physics)
dc.subject Generalization
dc.subject Knowledge representation (Information theory)
dc.subject Autonomy
dc.subject Reasoning
dc.subject Gervigreind
dc.subject Vélrænt nám
dc.subject Orsakatengsl
dc.subject Reiknirit
dc.subject Röksemdafærsla
dc.title Autonomous causal generalization
dc.title.alternative Algrím fyrir alhæfingar um orsakasambönd
dc.type info:eu-repo/semantics/doctoralThesis
dc.contributor.department Department of Computer Science (RU)
dc.contributor.department Tölvunarfræðideild (HR)
dc.contributor.school School of Technology (RU)
dc.contributor.school Tæknisvið (HR)


Files in this item

This item appears in the following Collection(s)

Show simple item record