ChatGPT를 통해 우리가 이해할수 있는것
관련링크
본문
인공지능은 인간의 뉴런 다발을 흉내내는 구조입니다.
뉴런이 아날로그 신호를 연결된 다른 뉴런에게 강약패턴을 바꿔서 전달하듯이
인공지능은 노드라는 개념이 있고 다른 노드에서 들어온 숫자를 간단하게 더하고 곱해서 다른 노드에게 전달합니다.
그냥 어찌보면 인간의 뉴런을 디지털화 해서 GPU파워로 모사한거라고 보시면 됩니다.
인공지능을 만들때 의외로 고생하는 부분이 어떤 부분이냐면 학습 데이터의 안전성 입니다.
특히나 언어모델은 학습된 데이터가 편견이나 혐오같은 잘못된 사상에 오염되지 않게 하기 위해서
학습할때 그런데이터가 없는지 면밀히 검토하고 학습결과로 나온 인공지능이 만드는 문장을 점검하죠.
근데 제가 방금 인공지능은 인간의 뇌를 모사했다고 했잖아요?
그 얘기는 인간도 똑같은 상태라는 겁니다.
사회가 이미 잘못되었다고 합의된 혐오나 차별의식 같은것들을 반복적으로 즐기고
그런걸 동조하면서 강화하면 그냥 무식한 사람 되는 겁니다.
또한 잘못된 정보를 스스로 정정하지 않고 우기기 시작하면 그 틀에서 만들어질 미래의 논리들도 다 마찬가지로 저열해 지겠죠.
결국 우리의 관념은 우리가 얼마나 올바르고 정확한 정보를 계속 찾느냐에 따라 달렸다는 얘기입니다.
인공지능 모델의 노드팩터들은 사람이 모델을 만들때만 학습에 관여하지만 사람은 스스로 계속 기억을 강화합니다.
그러니까 어느 한 지점.. 이를테면 학생때만 공부 열심히 하고 나중엔 놀아도 되는 구조가 아니라는 거죠.
매순간 자신의 생각이 올바른 것인지 점검해야 합니다.
프로그래밍 명언중에 "바퀴를 다시 발명하지 마라" 라는 얘기가 있습니다.
사회가 오랜시간 합의를 통해 만든 사회적 가치는 그만한 이유가 있어서 만들어진 것입니다.
만약 그걸 깨고싶어서 연구를 하는 거라면 그것도 의미가 있겠으나
대부분은 그런 치열하게 만들어진 사회적 함의가 무슨 의민지 이해할수가 없어서
별 고민없이 사회가 멋대로 자신에게 어떤 사고를 강제한다고 생각하시는 분들이 많아요.
특히 이런 관념은 인권의식에서 여실히 드러날 때가 많습니다.
ChatGPT는 여러 화두를 던지고 있습니다.
저는 그중에 대규모 언어모델이 보여주는 인간과 흡사한 사고패턴에 더 눈길이 가더군요..