En revanche, cela devient beaucoup plus compliqué quand il est question de simuler une « vie élaborée » comparable à celle de l’être humain. En quoi un programmeur est fondé à décider des savoirs / informations qui sont adéquates ? Selon quels critères l’IA prendrait en compte telle information plutôt que telle autre pour être efficace ? Suffit-il de lui donner des principes moraux ou, pour supprimer les risques, de lui interdire de faire voire de dire certaines choses ? Comment une IA peut se fixer un objectif qui ne soit pas quantifié ou quantifiable et « raisonner/décider » à partir de là ?
L’information est « adéquate » au regard de l’intention : ce que l’on veut en faire. L’intention devrait être adéquate. Son adéquation dépend du contexte et de la personnalité. Dans un contexte qui s’impose sur le plan psychologique, l’intention est orientée. Seule la personnalité peut aller contre l’effet produit par le contexte. Un manque de personnalité permet une « intention » orientée voire formatée.
L’efficacité dans la vie est directement liée à l’intelligence, ou à la mécanisation des processus (essentiellement celle de l’intelligence). Deux intentions différentes vont produire un résultat différent avec une efficacité identique.
Le cerveau fonctionne de manière à rechercher dans la mémoire l’information pertinente. Il est donc programmé pour être efficace par le biais de l’efficience. Il est d’ailleurs effectivement question de biais.
Une intelligence mécanique est-elle vraiment une intelligence ? Elle l’est mais avec le risque de produire toujours le même type de résultat si l’intention est la même.
Pour être efficace, il faut savoir mais il faut également comprendre. JSCOB…?