이가연 Kayeon Lee (성신여대 연구교수)
우리가 어떤 사람에게 도덕적 책임을 묻는 것은 그 사람이 ‘자유의지에 따라’ 행동했다고 가정하기 때문이다. 우리는 누군가를 비난하거나 칭찬할 때, 그 사람이 “다른 선택을 할 수 있었는데” 그러한 행동을 했다고 전제한다. 이 전제는 도덕 판단뿐 아니라 형법의 구조에도 깊게 박혀 있다. 처벌이 정당화되려면, 최소한 행위자가 규범을 이해하고 선택할 능력이 있었고, 그 선택에 따라 결과를 감당해야 한다는 생각이 필요하기 때문이다. 만약 인간의 선택이 뇌의 인과적 과정에 의해 이미 결정되어 있다면, 우리가 말하는 ‘자유의지’는 무엇이며, 도덕적 책임은 어디에 근거하는가? 그리고 이 논쟁에서 한 걸음 나아가, 오늘날 급속히 발전하는 인공지능에게도 같은 질문을 던질 수 있을까?
현재의 인공지능 시스템은 대규모 데이터와 알고리즘에 기반해 확률적으로 출력을 생성한다고 알려져 있다. 그 내부 작동이 통계적 최적화와 가중치 조정의 연쇄라면, 이는 표면적으로 보기에 결정론적 뇌 과정과 크게 다르지 않다. 둘 다 입력을 받고, 내부 상태를 갱신하며, 출력을 내는 것이기 때문이다. 그렇다면 인간에게 자유의지를 부정하는 논리를 그대로 적용한다면, 인공지능 역시 “그저 그렇게 설계되었기 때문에 그렇게 행동했을 뿐”이라고 말할 수 있다. 하지만 여기서 중요한 차이가 등장한다. 도덕적 책임을 묻기 위해 우리는 단순한 인과적 기계 이상의 조건을 요구해 왔다. 예컨대 법적 책임 능력에는 규범을 이해할 수 있는 인지 능력, 자신의 행동이 타인에게 미칠 영향을 인식하는 능력, 그리고 자기 통제 능력이 포함된다. 어떤 학자들은 현재의 인공지능은 규범을 ‘이해’한다기보다는 규범에 대한 데이터를 학습하고 패턴을 재현한다고 주장한다. 고통을 경험하지도 않고, 비난이나 죄책감을 내면화하지도 않는다는 것이다. 따라서 그들은 인공지능을 도덕적 ‘행위자(moral agent)’라기보다는 도덕적 ‘도구’ 혹은 ‘행위의 매개’로 본다. 그렇다고 해서 인공지능 관련 책임 문제가 사라지는 것은 아니다. 오히려 책임의 귀속이 더 복잡해진다. 자율주행차가 사고를 냈을 때, 책임은 누구에게 있는가? 알고리즘을 설계한 개발자, 시스템을 승인한 기업, 데이터를 제공한 사회, 혹은 이를 사용하는 운전자? 이 논의는 인공지능에게 직접 책임을 묻기보다는, 인간과 조직에 책임을 재분배하는 문제로 나타난다. 현재의 법체계는 인공지능을 독립적 도덕 주체로 보지 않고, 책임을 인간 또는 법인(기업)에 귀속시키는 방향으로 작동하고 있다.
자유의지 논쟁의 과학적 계기는 20세기 후반의 뇌 연구에서 본격화되었다. 대표적으로 자주 언급되는 인물은 벤자민 리벳(Benjamin Libet)이다. 그의 실험은 참가자가 임의의 순간에 손가락을 움직이기로 ‘결심했다’고 보고하는 시점보다 먼저 뇌에서 준비 전위라는 신호가 나타난다는 점을 보여주었다. 이 결과는 “뇌가 먼저 시작하고, 의식은 나중에 따라온다”는 도발적 결론을 낳았으며, 이런 연구는 대중적으로 “자유의지는 환상일 수 있다”는 메시지로 확산되었다. 샘 해리스(Sam Harris)는 우리의 생각과 선택은 유전자, 환경, 무의식적 뇌 과정의 산물이며, 우리는 그것들을 스스로 선택하지 않았다고 주장한다. 만약 내가 지금 분노하는 성향이나 충동적인 기질을 스스로 설계하지 않았다면, 그 성향에서 비롯된 행동에 대해 ‘궁극적 책임’을 지는 것이 정당한지 의문이 생긴다는 것이다. 이러한 관점에서는 인간 역시 자연적 인과의 흐름 속에 있는 복잡한 생물학적 기계에 가깝다.
이처럼 자유의지가 환상일 수 있다는 과학계의 주장에 대해 철학계는 양립론으로 반응하고 있다. 다니엘 데넷(Daniel Dennett)은 결정론이 참일 가능성을 인정하면서도 그것이 곧바로 책임의 붕괴를 의미하지는 않는다고 주장한다. 그들에 따르면 자유의지는 물리법칙을 초월하는 초자연적 능력이 아니라 강압이나 심각한 오해 없이 자신의 이유와 가치에 따라 행동하는 능력이다. 내가 총을 겨누고 협박받아 돈을 건넸다면 자유롭지 않다. 그러나 내가 상황을 이해하고, 숙고하고, 나의 신념과 욕망에 따라 행동했다면 그것은 충분히 ‘책임 가능한 자유’라는 것이다. 이러한 논쟁은 형벌 이론과도 깊이 연결된다. 전통적 응보주의는 “그가 마땅히 벌을 받아야 한다”는 도덕적 직관에 기대고 있다. 하지만 자유의지에 대한 회의가 강해질수록, 처벌은 응보보다는 예방과 재활의 관점에서 재정당화되어야 한다는 주장이 힘을 얻는다.
그러나 철학적으로는 더 급진적인 질문도 제기된다. 만약 미래의 인공지능이 스스로 목표를 설정하고, 자신의 내부 상태를 반성하며, 규범을 이해하고 수정할 수 있는 수준에 이른다면 어떻게 될까? 어떤 학자들은 일정 수준 이상의 자율성과 반성 능력을 갖춘 시스템은 최소한 부분적 도덕 주체로 간주해야 할지 모른다고 주장한다. 반면 다른 이들은 경험과 의식, 특히 고통과 쾌락의 주관적 감각이 없다면 진정한 도덕적 책임은 성립할 수 없다고 본다. 책임은 단지 계산 능력이 아니라, ‘도덕적 의미를 체험하는 존재’에게만 부과될 수 있다는 것이다. 흥미롭게도 여기서 인간 자유의지 논쟁이 다시 반사된다. 만약 인간 역시 인과적 과정의 산물이고, 의식은 그 과정의 부산물에 불과하다면, 인간과 고도화된 인공지능 사이의 차이는 점점 희미해질 수 있다. 반대로 우리가 인간에게 책임을 부과하는 이유가 단지 인과를 끊는 능력 때문이 아니라, 사회적 관계 속에서 이유를 주고받고 규범에 반응하는 존재이기 때문이라면, 일정 조건을 충족한 인공지능도 미래에는 그 범주에 들어올 가능성을 배제할 수 없다.
결국 “인공지능에 도덕적 책임을 물을 수 있는가?”라는 질문은 “도덕적 책임의 본질은 무엇인가?”라는 더 오래된 질문으로 돌아간다. 책임이 형이상학적 자유의지에 달려 있다면, 인공지능뿐 아니라 인간의 책임도 위태로워진다. 책임이 이유에 반응하는 능력과 사회적 규범 참여에 달려 있다면, 인간과 인공지능 사이의 경계는 기술 발전과 함께 재조정될 것이다. 이 논쟁은 단순히 철학적 사변이 아니다. 그것은 형법, 기술 규제, 기업 책임, 인간 존엄의 개념을 모두 재구성할 잠재력을 지닌 문제다. 우리는 인간을 어떻게 이해할 것인가, 그리고 우리가 만든 지능적 시스템을 어떤 존재로 대할 것인가. 자유의지 논쟁은 이제 더 이상 인간 내부의 문제에 머물지 않는다. 그것은 우리가 책임과 정의를 어떤 방식으로 설계할 것인지에 대한, 기술 시대의 근본적인 물음으로 확장되고 있다.
We hold someone morally responsible because we assume that the person acted of their own free will. When we blame or praise someone, we presuppose that the person could have chosen otherwise yet acted as they did. This assumption is deeply embedded not only in moral judgment but also in the structure of criminal law. For punishment to be justified, we must at least assume that the agent had the capacity to understand norms and to choose among alternatives, and that they ought to bear the consequences of that choice. But if human choices are already determined by causal processes in the brain, what exactly is the “free will” we speak of, and on what basis does moral responsibility rest? Pushing the question one step further, can we now ask the same question about artificial intelligence, which is rapidly advancing today?
Current AI systems are generally understood to generate outputs probabilistically based on large-scale data and algorithms. If their internal operation consists of chains of statistical optimization and weight adjustment, then, at least on the surface, they do not appear fundamentally different from deterministic neural processes in the human brain. Both receive inputs, update internal states, and produce outputs. If we apply the same reasoning used to deny human free will, we might say that an AI system simply behaves the way it does because it was designed that way. However, an important difference emerges here. In order to attribute moral responsibility, we have traditionally demanded more than mere causal machinery. Legal responsibility, for instance, presupposes cognitive capacities such as the ability to understand norms, to recognize how one’s actions may affect others, and to exercise self-control. Some scholars argue that present-day AI does not truly understand norms but rather learns data about them and reproduces patterns. AI systems do not experience suffering, nor do they internalize blame or guilt. For this reason, they are often viewed not as moral agents but as moral tools or intermediaries of action.
Yet this does not eliminate questions of responsibility related to AI. On the contrary, it makes the attribution of responsibility more complex. When a self-driving car causes an accident, who is responsible? Is it the developer who designed the algorithm, the corporation that deployed the system, the society that provided the data, or the driver who used it? In practice, the issue often appears not as one of assigning responsibility to AI itself, but of redistributing responsibility among humans and organizations. Current legal systems do not treat AI as an independent moral subject; instead, they tend to attribute responsibility to human actors or legal entities such as corporations.
The scientific momentum behind debates about free will emerged in the late twentieth century through research on the brain. One of the most frequently cited figures is Benjamin Libet. His experiments showed that a neural signal known as the readiness potential appears in the brain before participants report the moment at which they consciously decided to move their finger. This finding led to the provocative conclusion that “the brain begins first, and consciousness follows afterward.” Popular interpretations of such research have often suggested that free will may be an illusion. Sam Harris, for example, argues that our thoughts and choices are products of genes, environment, and unconscious neural processes—none of which we ourselves chose. If I did not design my own tendencies toward anger or impulsivity, then it becomes difficult to see why I should bear ultimate responsibility for actions that arise from them. From this perspective, humans too resemble complex biological machines operating within the causal flow of nature.
Philosophy has responded to these claims with the position known as compatibilism. Daniel Dennett, for instance, acknowledges that determinism may be true while arguing that this does not entail the collapse of moral responsibility. According to this view, free will is not a supernatural power that transcends physical laws but rather the capacity to act according to one’s reasons and values without coercion or profound misunderstanding. If someone hands over money because a gun is pointed at them, their action is not free. But if they understand the situation, deliberate, and act in accordance with their beliefs and desires, then their action may still count as a form of freedom sufficient for responsibility.
These debates are closely connected to theories of punishment. Traditional retributivism rests on the moral intuition that a wrongdoer simply deserves punishment. However, as skepticism about free will grows stronger, some argue that punishment must be justified less in terms of retribution and more in terms of prevention and rehabilitation.
Philosophically, however, an even more radical question arises. What if future AI systems were to reach a level at which they could set their own goals, reflect on their internal states, understand norms, and revise them? Some scholars suggest that systems possessing sufficient autonomy and reflective capacity might need to be regarded, at least partially, as moral agents. Others disagree, arguing that genuine moral responsibility cannot exist without experience and consciousness—particularly without the subjective capacity for suffering and pleasure. On this view, responsibility cannot be imposed merely on an entity capable of calculation, but only on beings capable of experiencing the moral significance of their actions.
Interestingly, the debate about human free will reappears here in reflection. If humans too are ultimately products of causal processes, and consciousness is merely a byproduct of those processes, then the difference between humans and highly advanced AI may gradually blur. Conversely, if the reason we hold humans responsible is not because they can break causal chains but because they participate in social practices of giving and responding to reasons, then it may not be impossible that sufficiently advanced AI could someday fall within that category.
Ultimately, the question “Can artificial intelligence bear moral responsibility?” leads us back to the older and deeper question: What is the nature of moral responsibility itself? If responsibility depends on metaphysical free will, then not only AI but human responsibility may also be in jeopardy. If responsibility instead depends on the capacity to respond to reasons and to participate in social norms, then the boundary between humans and AI may be renegotiated as technology advances.
This debate is not merely philosophical speculation. It has the potential to reshape criminal law, technology regulation, corporate liability, and even our conception of human dignity. The question we face is how we should understand human beings—and what kind of entities we should regard the intelligent systems we create to be. The debate over free will is no longer confined to the inner workings of the human mind. It is expanding into a fundamental question of the technological age: how we will design responsibility and justice in a world shared with artificial intelligence.

댓글 남기기