인공지능으로 시험 보는 대학생들, 막을 수 있나?

인공지능으로 시험 보는 대학생들, 막을 수 있나?
Photo by Kaleidico / Unsplash
💡
Editor's Pick for Juniors
- 여러 대학들에서 속속 나오는 시험 부정 행위 사례들
- 인공지능으로 쓴 글, 100% 식별하는 건 불가능
- 교육과 학교 운영 방침, 학습의 목표 등 기본기 부실이 부른 일

Youngsters!
테크를 가장 날카롭고 가치 있게 읽어주는 더테크엣지 아빠들이야.

요즘 대학생 언니 오빠들이 여기 저기서 인공지능 때문에 골치가 아프다는데, 그 얘기를 해볼까 해. 현재 우리 인류가 일상적으로 사용하고 있는 인공지능은 챗GPT나 제미나이, 퍼플렉시티 등 뭔가 ‘글’이나 ‘말’에 특화되어 있다는 특성을 가지고 있어. 그래서 이런 인공지능들을 ‘대형 언어 모델’이라고도 해. 바둑을 잘 두는 인공지능이 있고, 거리의 표지판이나 신호등을 잘 읽고 이해하는 인공지능이 있고, 기계로 만들어진 팔과 다리를 잘 움직이는 인공지능이 있는데, 요즘은 말 잘 하고 글도 잘 쓰는 ‘대형 언어 모델’이 인기야.

대학생 언니 오빠들이 인공지능 때문에 골치가 아픈 것도 바로 이 말 잘 하는 인공지능인 대형 언어 모델 때문이라고 할 수 있어. 말을 잘 하니 대화가 통하는 것 같고, 대화가 통하는 것 같으니 친근하게 느껴지는데다가, 이 인공지능이라는 게 인터넷에 연결된 모든 지식을 재빠르게 검색해 주기까지 하니까 거의 모든 질문에 막힘 없이 대답까지 해 주거든. 인공지능이라고 해서 모든 걸 다 아는 건 아니지. 그걸 사람들이 모르지 않아. 하지만 ‘친근’한 뭔가가 사람보다 더 말을 잘 하는데, 어지간한 질문들에 풍성한 답을 자꾸만 들려주기까지 하니 어떻게 되겠니? 자기도 모르게 인공지능을 점점 더 신뢰하게 되고, 나중엔 점점 더 의존하게도 되는 거야. ‘인공지능이 모든 걸 다 알지 않아’라는 경계심이 천천히 흐려지는 거지.

그러다 보니 인공지능을 쓰지 말아야 할 곳에까지 쓰기 시작했어. 대학교에 가면 자기가 원하는 분야의 깊은 지식을 쌓기 위해 여러 가지 공부를 하고, 공부한 것을 증명하기 위해 과제도 해서 내고 시험도 보는 건 알고 있지? 너희들도 학교에서 그런 거 많이 하니까, 대학교도 그리 다르지 않다는 게 쉽게 상상이 갈거야. 쉽게 말해 과제나 시험도 ‘지식 축적’이라는 것의 과정 중에 있는 건데, 몇몇 대학생들이 이 척척박사 인공지능을 가지고 과제도 만들고 시험도 보고 말았어. 자신들의 지식으로 거쳐야 할 단계를, 인공지능의 도움을 받아 손쉽게 넘어가려 했던 거야. 

점점 늘어나는 사례들

2025년 6월에는 영국 대학교들에서 이미 7천 건 넘는 인공지능 부정 사례가 적발됐었어. 사실 이건 조사를 통해 드러난 것만 7천 건이라 대부분 전문가들은 이것보다 훨씬 많은 대학생들이 부정 행위를 저질렀다고 예상하고 있어. 그보다 한 해 전인 2024년에는 터키에서도 대학생들이 시험 시간에 카메라나 이어폰 같은 걸 숨겨 인공지능과 대화하다가 들키기도 했었고. 얼마 전 한 미국 대학생은 소셜미디어에 자기가 인공지능으로 시험봤다는 사실을 스스로 공개하기까지 해서 논란이 되기도 했었어. 

외국만 이럴까? 한국도 예외는 아니야. 이번 달(11월)에만 연세, 고려, 서울대학 학생들이 인공지능을 활용해 시험을 보거나 과제를 만들어 제출하는 바람에 성적이 전부 무효 처리 되기도 했었어. 부산 지역의 어느 대학교 어느 과에서도 30명 중 14명이 인공지능의 도움을 받아 과제물을 작성했다가 낮은 점수를 받았고. 어마어마한 일이지. 대학교 쪽에서만 보도가 돼서 이 정도지, 사실 중고등학생들 중에서도 이런 경우가 없으리라고 장담할 수는 없을 거야. 뛰어난 인공지능은 현재 누구라도 무료로 사용할 수 있거든. 

감독관은 전혀 눈치 채지 못한 상황에서, 인공지능과 함께 시험을 보는 학급[자료: 제미나이로 그림]

게다가 이게 대학생들만의 문제는 아냐. 미국에서는 무려 변호사가 재판에서 쓸 변론문을 챗GPT로 작성했다가 망신을 당한 적도 있어. 당시 그 변호사가 맡았던 사건과 관련된 내용에 틀린 부분이 변론 중에 드러난 거야. 사실 챗GPT가 쓴 걸 한 번 읽고 검토만 했어도 들키지 않고 넘어갔을 수도 있는데, 그 기본적인 것도 하지 않았다가 된통 수치를 겪은 거지. 어른들도 이러니 학생들이 유혹에 빠지지 않기를 바라는 게 더 이상할 수도 있어.

인공지능이 인공지능을 잡는다?

인공지능이 이런 식으로 악용될 거라는 건 사실 우리 모두 진작부터 알고 있었어. 대학생들이 시험을 인공지능의 힘으로 친 것을 ‘악용’으로 보기 힘들만한 사건들이 이전부터 있어 왔고, 지금도 계속 늘어나고 있기 때문이야. 요즘은 우리가 ‘해커’라고 부르는 사람들이 인공지능을 아주 잘 사용해 나쁜 짓을 하고 있지. 공격 표적을 정하고, 그 표적을 조사하고, 공격을 기획해 실행하는 모든 과정에 인공지능이 활용되고 있고, 그러면서 해킹 공격은 점점 효과적으로 변해가는 중이야. 이 사람들은 인공지능의 힘으로 많은 돈을 빼앗거나 기업을 망가트리기까지 해. 시험과는 차원이 틀린 진짜 ‘악용’인 것이지. 대학생들의 엇나간 인공지능 활용은 ‘오용’ 정도로 쓰는 게 맞을 거 같다.

해커들을 잡는 사람들인 보안 전문가들은 이미 수년 전부터 “인공지능을 활용한 해커는 인공지능으로 막아야 한다”고 주장했고, 실제 인공지능을 탑재한 방어 도구들을 만들어 왔어. 효과적인 것도 있고, 아닌 것도 있어. 뛰어난 인공지능 방어 도구가 등장한다고 해도, 해커들은 연구를 열심히 해서 그 도구를 무력화시킬 것이고, 언젠가 그 방어 도구도 뚫릴 거야. 그러면 보안 전문가들이 해커들의 기법을 연구해 더 나은 방어책을 들고 나타날 거고, 그러면서 공격은 시들해졌다가 다시 활성화 되는 일이 반복될 거야. 즉, 인공지능으로 인공지능을 영원히, 완벽히 막을 수 없다는 의미지. 

이는 대학가 인공지능 오용 사례에서도 통하는 말이야. ‘인공지능으로 대학생들이 아무리 글을 잘 써도 교수가 잘 잡아내면 되지 않는가’라는 질문에는 ‘그럴 수도 있지만 인공지능이 점점 발전하면서 한계가 나타날 것’이라고 답할 수 있어. ‘그러면 인공지능이 쓴 글을 인공지능이 적발하도록 기술을 개발하면 되지 않는가’라고 묻겠지? 그 답도 마찬가지야. 일시적으로는 그런 기술을 쓸 수 있겠지만, 곧 그것을 능가하는 인공지능이 나타날 것이니 한계가 나타날 것이 분명해. 인공지능으로 시험을 치르는 문제가 대학가에서 영영 사라지지 않을 거라는 예측들이 나오는 건 바로 이 때문이기도 해.

기술과 기술의 술래잡기에서는 영원한 술래도, 영원한 도망자도 없다[자료: 제미나이로 그린 그림]

해커들을 막기 위한 전문 분야를 ‘정보 보안’이라고 하는데, 여기가 참 재미있는 건 ‘기술로 기술을 막을 수 없다’는 게 늘 증명되기 때문이야. 해커들이 아무리 머리를 싸고 연구해 창조적 공격 기법을 발명한다 해도, 조만간 보안 전문가들의 힘에 눌려. 보안 전문가들이 옹성을 쌓는 데 성공해 각종 해킹 공격을 다 튕겨낸다 하더라도, 얼마 가지 않아. 해커들은 반드시 그 옹성에서 구멍을 찾아내거든. 이게 수십년 동안 반복되고 있어. ‘기술’은 또 다른 ‘기술’에의 우위를 ‘잠시만’ 점할 뿐이야. 

시험 적발 인공지능은 앞으로도 불가능

납득이 가지 않을 수 있어. 인류는 도무지 달에 갈 수 없었을 것 같지만 결국 로켓 과학으로 해냈다며, 지금 시점에서는 기술의 발달이 어려워 보이지만, 시간이 충분히 흐르면 결국 인공지능으로 쓴 글을 잡아내는 인공지능이 나올 수도 있다고 믿고 싶을 수 있어. 하지만 학생이 인공지능으로 쓴 글을, ‘인공지능으로 썼다’고 딱 잡아내는 건 비단 기술만의 문제가 아니기 때문에, 앞으로도 나오기 힘들다고 보여. 지금으로서는 말야.

먼저, 인간이 쓴 글과 인공지능이 쓴 글은 겉보기에 별 다른 차이가 없어. A라는 사람이 글을 쓸 때 나타나는 특징이나 습관이 있을 수 있는데, 이미 인공지능이 이런 패턴을 흉내 내는 건 일도 아니야. A라는 사람이 자주 쓰는 단어나 문체를 기반으로 인공지능 활용 여부를 적발하는 시도는 늘 있어 왔고, 앞으로도 그럴 것이지만, 정확하지는 않을 거야. 현재 이런 시도들은 오탐이 굉장히 많이 나타나. 인공지능의 인간 흉내가 점점 더 정교해질 것이 뻔하다는 것도 생각해야 해.

이미 많은 사람들이 인공지능으로 글을 썼다는 걸 들키지 않으려고 여러 방법을 동원하고 있기도 해. 예를 들어 ‘사람이 쓴 것처럼 불규칙하게 써주고, 문법과 용어의 오류도 섞어줘’라고 지시를 내리면 더 ‘인간다운’ 글이 나온다는 사실은 널리 알려져 있지. 이렇게 나온 글들은 현존하는 탐지기들을 대부분 피해가는데, 앞으로 더 발전된 탐지기가 나온다 한들 특별한 효과는 없을 거라고 봐.

발전하는 건 사람도 마찬가지지. ‘학생이 평소 쓴 글보다 지나치게 깔끔하고 정돈돼 있다’는 것을 근거로 ‘이 시험지는 인공지능이 쓴 것’이라고 결론을 함부로 내릴 수 없는 건, 그 학생의 글 쓰기 실력이 발전했을 리가 없다는 걸 전제로 하기 때문이지. 하지만 그건 사실이 아니고(누구나 글 쓰기 실력을 향상시킬 수 있어!), 심지어 교육기관에서 학생을 대상으로 할 수 있는 말은 아니야. 법정에서 증명도 하기 힘들고. 게다가 정말 학생이 글 쓰기에 대한 깨우침을 얻은 거라면, 얼마나 억울하겠어? 

현존하는 인공지능 탐지 인공지능

그럼에도 처음부터 ‘불가능하다’라고 단정 짓지 않고 인공지능 탐지 도구를 개발하려는 사람들은 존재하고 있어. 그래서 여러 가지 도구들이 세상에 나와 있지. 그 도구들을 몇 가지 소개해보려 해. 하지만 이 중 ‘신뢰할 만하다’고 평가 받는 건 없다는 걸 꼭 기억해. 지금 이 기술들은 전부 ‘참고용’일 뿐이야.

먼저 터니틴(Turnitin), GPT제로(GPTZero)와 같은 ‘인공지능 텍스트 분류기’가 있어. 하지만 오탐률이 높은 것으로 알려져 있고, ‘확률적 분류’만 하고 있어. 즉 어떤 텍스트를 줬을 때 ‘40% 확률로 인공지능이 썼을 것으로 보인다’ 정도의 결과만 낸다는 거야. 글만 보고 ‘용의자 A가 썼음’이라고 속시원히 밝혀내지는 못하지. 게다가 터니틴과 GPT제로 모두, 인간이 정성스럽게 쓴 글을 인공지능이 썼다고 판별한 사례도 다수 있어. 그러니 이러한 도구들로 분석한 결과를 법정에 가져가 증거로 쓸 수는 없어.

전통적인 스타일로메트리(Stylometry) 기법도 인공지능이 썼나, 사람이 썼나 구분하는 데 사용돼. 원래 스타일로메트리는 글 쓰는 인공지능이 등장하기 전부터 텍스트를 분석하는 데 썼던 방법이야. 특정 텍스트의 원 저자를 추적해 찾아내는 기술이었는데, 터니틴이나 GPT제로와 마찬가지로 ‘확률적 결과’만 얻을 수 있었어. 저자를 정확하게 콕 짚어낼 수는 없다는 거지. 두루뭉술하게 ‘몇 % 정도의 확률’로만 답을 내는 것이기 때문에, 스타일로메트리 역시 법원에서 쓸 만한 결과물을 내지는 못해.

텍스트만으로 원 저자를 파악한다는 건 애초부터 매우 고난도 작업이다[자료: 제미나이로 그림]

글만 보고 그걸 쓴 사람(혹은 기계)을 파악한다는 건 처음부터 그 자체로 불가능에 가까울 정도로 힘든 일이라는 걸 알아야 해. ‘제가 좋아하는 아무개 작가는 문체가 너무 분명해서 누구나 알아보는 데요?’라는 질문이 있을 수 있어. 문체를 지문처럼 가지고 있는 사람들이 있다는 것에는 동의해. 하지만 그 사람이 그 글을 썼다고 100% 확신을 갖는 것과, 그 사람이 그 글을 쓴 것 같다고 어느 정도 추측을 하는 것은 전혀 다른 얘기야. 특히 잘못된 행동을 한 범인을 찾는 문제에 있어서는 더 그렇지. 우리에게는 글쓴 이를 100% 추적할 수 있는 기술이 없고, 용의자가 ‘내가 쓴 게 아닙니다’, ‘내가 글을 더 잘 썼습니다’, ‘내가 특정 스타일을 흉내 내서 쓴 것 뿐입니다’라고 한다면 반박할 수 없어. 

인공지능으로 본 시험, 인공지능 문제 아냐

결국 ‘인공지능으로 시험 보는 부정 행위를 어떻게 근절시킬 것인가?’에 대한 답은 ‘아직 없음’이야. 사실 인간의 기술 발전이 가지고 있는 가능성 때문에 ‘아직’이라는 말이 붙어 있는데, 더 정확히는 ‘영원히 없을 것’이 더 맞다고 봐. 단지 텍스트만 가지고 인공지능의 향기를 알아챌 수 있는 방법은 과학 기술이 끝없이 발전한다고 해도 나오지 않을 가능성이 높아. 

대신 과학 기술이 끝없이 발전해 실제 손가락으로 타이핑한 모든 글을 알아낼 수 있게 된다면 어떨까? 이게 현재 해커들이 사용하는 ‘키로깅’이라는 기법과 비슷한 건데, 타자기에 묻은 지문을 시간별로 나열할 수 있게 되거나, 타건음을 정밀하게 분석하는 기술이 개발된다면 ‘이 글은 내가 썼습니다’라는 걸 증명하기 위한 자료로서 시험지와 같이 제출할 수도 있겠지. 물론 이런 기술의 구현 가능성은 아직 없는 것으로 보이지만, 상상만 해보면 그렇다는 거야. 인공지능이 쓴 글을 적발하기 위해서, 우리는 다른 편에서의 기술 개발을 생각해야 할지도 모른다는 의미지.

하지만 인공지능이 써준 글을 그대로 타이핑하는 수고만 한 번 더 하면, 이 상상 속 기술은 곧바로 무용지물이 되겠지. 그러면 이제 대학교나 경찰은 타이핑 속도가 너무 일정했었나 불규칙했었나를 조사하려 들거야. 뭔가를 베껴 쓰는 거라면 타자 속도가 아무래도 일정하겠고, 스스로 생각해서 쓰는 거라면 중간중간 휴식기가 있어야 자연스러우니까. 그러면 학생들은 또 일부러 타이핑을 불규칙하게 하겠지. 이런 식으로, 문제 해결을 위해 기술에만 의존하는 건 큰 효과를 거두지 못해. 잔머리만 늘어나지.

하이테크의 부작용, 기본에서 답을 찾다

결국 이건 사람이 사람 차원에서 풀어야 하는 문제야. 과제를 혼자 힘으로 해내고, 시험을 정직하게 치러야 한다는 게 너무나 당연한 인식으로 자리를 잡은 학생이라면, 인공지능이 사람을 능가한 시대라도 아무 도움 없이 학문을 닦겠지. 그러니 부모의 선생들은 학생들에게 ‘점수’ 외의 동기를 부여하는 법을 익혀야 해. 수십년 동안 학생들은 ‘높은 점수’를 위해 공부했어. 그러니 100점만 ‘의미가 있는 결과’였고, 그 외 나머지 100개의 숫자들(0~99)은 ‘무의미’로 해석됐지.

정말 그럴까? 50이라는 점수는 의미가 없을까? 단일 과목 점수 하나로 의미를 찾기 힘들다면 다른 여러 과목의 점수를 종합적으로 분석해 또 다른 의미를 추론할 수는 없는 걸까? 아니면 시기별 점수 등락폭으로 인해 알아낼 수 있는 이야기는 존재하지 않는 걸까? 시험을 주기적으로 쳐서 나오는 점수에 다른 의미를 부여하는 방법을 교육계에서 찾아낼 수 있다면, 그래서 우리가 교육 현장에서 다른 가치를 추구할 수 있게 된다면 인공지능으로 시험보는 학생들이 의미 있게 줄일 수 있을지도 몰라. 인공지능으로 인한 문제지만, 어쩌면 우리는 현 교육 시스템의 문제를 보고 있는 것일 수도 있어.

성적표에 나오는 많은 다양한 숫자들을 100과 그 나머지로만 나눌 수는 없다[자료: 제미나이로 그림]

현 대학의 평가 제도는 어떨까? 인공지능 사용 여부를 100% 확신할 기술이 없는 상황에서 ‘우리 학교는 시험과 과제 작성 시 인공지능 사용을 금합니다’라고 아무리 강조해 봤자인데, 교칙만 수립한다고 해서 문제가 해결되지는 않아. 인공지능이 사용되지 않도록 환경을 조성해야 해. 예를 들어 시험은 전부 오프라인에서 보도록 하고, 감독관의 수를 늘린다면 어떨까? 과제 역시 수행 과정을 투명하게 공개할 수밖에 없도록 한다면 도움이 될 거야. 

무엇보다 ‘인공지능 전면 금지’보다 ‘활용 가능한 상황’과 ‘활용 불가능한 상황’을 학교 내에서 분명하게 정하는 게 먼저겠지. ‘나쁜 것’과 ‘좋은 것’을 분명히 정해주지 않기 때문에 나쁜 줄 모르고 나쁜 행동을 하는 경우들이 의외로 많거든. 그것을 분명히 해주는 것만으로도 ‘헷갈려서 그랬다’는 변명들이 줄어들 거야. 또한 ‘선용’의 사례를 확실히 앎으로써 ‘악용’ 역시 스스로 거부할 수 있는 능력이 길러지기도 하니까. 그리고 이 ‘선용’과 ‘악용’의 구분은 때론 기술의 발전과 시대의 흐름에 따라 변하기도 하는데, 학교 측에서도 이런 흐름에 민감하게 대처할 필요가 있어. 즉, 학생들을 ‘기술의 발전으로 인한 부작용’으로부터 보호하는 데 더 고심해야 할 거란 얘기야. 그저 좋은 지식만 전수하는 게 전부가 아니게 된 거라는 걸 대학교들이 받아들여야 할 때가 됐어.

어린 학생들이 할 일

그렇다면 너희 초중생들이 할 일은 뭘까? 이미 너희들도 인공지능에 대해 익히 들어봤을 거고, 사용해본 적도 있을 테지. 어쩌면 그 강력함을 체험했을 수도 있어. 친구들 중에는 인공지능으로 여러 숙제를 해낸 사람도 있을 수 있고 말야. 그런 상황에서 ‘나중에 어른 되면 써라’라고 마냥 인공지능을 차단하는 건 비현실적인 대처겠지.

이 글을 읽는 너희 각자가 어느 정도나 컴퓨터 관련 기술을 가지고 있고, 얼마나 컴퓨터 기술을 보유하고 있는지 모르겠지만, 한 가지만 기억했으면 해. 컴퓨터 기술의 주인은 자신이라는 것이야. 컴퓨터나 인공지능이나, 도구일 뿐이야. 친구도 아니고, 이웃도 아니고, 선생은 더더욱 아니야. 너희 손에서, 너희의 명령과 지시에 충실히 따르는 ‘도구’야. 이 개념이 너희들 안에 분명해졌으면 좋겠어.

주인이 도구를 부리는 건 당연한 일이야. 도구들을 가지고 여러 어려운 일들을 해결해내지. 그래서 진짜 주인은 자기 도구를 아껴. 함부로 쓰지 않아. 셰프님들은 자신들만의 칼을 매일 닦고 갈아서 보관해. 전기 기사님들 작업할 때 보면, 허리춤에 장비 주머니를 차고 작업을 하지. 그런데 어느 장비(예를 들어 망치)가 어느 자리에 있는지 정확히 기억하고 있어. 장비 하나 사라지면 그거부터 찾느라 시간을 보내기도 하고, 못 찾으면 상당히 안타까워 해. 아끼는 거야. 세상에 망치나 칼은 무수히 많지만, 내가 오랜 시간 써와서, 내 손에 척 달라붙는 느낌을 주는 망치나 칼은 세상에 단 하나거든. 

아낀다는 건 그 도구를 잘 안다는 뜻이기도 해. 내가 그 도구를 언제 어느 상황에서 꺼내 쓸 수 있다는 걸, 그랬을 때 그 도구가 절대 날 배반하지 않을 거라는 걸 잘 알고 있어. 반대로 그 도구를 쓰면 안 되는 상황도 잘 알고 있지. 이런 상황에서 그 도구를 꺼내봐야 도움도 되지 않고, 오히려 도구만 상하게 되거나 일이 악화된다는 걸 이해하고 있어. 진짜 주인은 그래. 쓸 때와 쓰지 않을 때를 분명히 알아.

좋은 주인은 좋은 도구를 제대로 아끼고 활용할 줄 안다. 그래서 최상의 결과를 낸다[자료: 제미나이로 그림]

학생들이 시험을 인공지능을 치는 것을 두고 ‘주인이 도구를 부렸다’고 할 수 없는 건, 그 무엇보다 학생들이 그 강력한 도구를 써야 할 곳과 쓰지 말아야 할 곳을 구분하지 못했기 때문이야. 인공지능을 씀으로써 학생들이 얻은 건 없어. 오히려 적발돼 시험 점수가 취소되거나 낮아졌지. 아마 주의와 경고도 받았을 거야. 즉 적절하지 않을 때에 어울리지 않는 도구를 써서 상황을 악화시킨 것이지. ‘컴퓨터(인공지능)는 내 휘하에 있는 일구 도구일 뿐이다’라는 걸 똑바로 인지하고 있었다면, 그 도구라는 것에 시험 성적을 구걸하는 일따위 하지 않았을 거야.

할 얘기가 더 없는 건 아니지만 여기서는 딱 하나만 강조할게. 인공지능이나 컴퓨터니 하는 것들이 아무리 너희들 눈을 호화롭게 하고 신기한 일을 해도, 결국 망치나 연필이나 주방칼처럼 하나의 도구일 뿐이라는 거. 너희가 아끼고 부리고 적절히 활용할 수 있는 그런 도구라는 거. 그걸 아는 게 제일 중요해.

by 문가용 기자(anotherphase@thetechedge.ai)


인공지능 통해 악성 코드 분석했더니, “아무튼 빨랐죠”
💡Edit0r’s Pick - 실시간으로 대화하면서 분석하는 기법 - 모든 데이터를 취합해 인공지능에 던져주는 기법 - 전자는 가설 검증에 강점, 후자는 멀웨어 계층 식별에 강점 인공지능을 활용해 복잡한 멀웨어를 분석 및 해독하는 데 성공한 사례가 나타났다. 보안 기업 체크포인트(CheckPoint)의 연구원들이 실시한 것으로, “복잡하게 구성돼 있어 분석 난이도가 가장 높은

Read more

영국 군, 내년도에 대규모 이스포츠 대회 연다?

영국 군, 내년도에 대규모 이스포츠 대회 연다?

💡Editor's Pick for Juniors - 영국 군, 40개 동맹국과 함께 이스포츠 대회 열어 - 내년도에 있을 대규모 워게임 훈련...게임 하듯 진행 - 러우 전쟁 치르는 우크라이나 군에서 많은 아이디어 얻어온 듯 Juniors! 안녕! 테크를 가장 날카롭고 가치 있게 읽어주는 더테크엣지 아빠들이야. 영국 군이 내년에 국제적인 규모의 군사

By 문가용 기자
파일 이름 검색 도구 글롭에서 고위험군 취약점 나와

파일 이름 검색 도구 글롭에서 고위험군 취약점 나와

💡Editor's Pick - 개발자들이 널리 사용하는 도구 글롭 - 그 글롭의 명령행 인터페이스에서 취약점 발견돼 - 파일 이름이 공격 도구로 전환돼 개발자들이 흔히 사용하는 오픈소스 패키지인 글롭(glob)에서 위험한 취약점이 발견됐다. 일반 사용자들이 직접 사용할 일은 거의 없어 대중적으로 낯선 이름이지만, 개발자들은 이를 활용해 여러 가지 도구와

By 문가용 기자
삼성 갤럭시 A와 M 시리즈에 선탑재된 스파이웨어 논란

삼성 갤럭시 A와 M 시리즈에 선탑재된 스파이웨어 논란

💡Editor's Pick for Juniors - 삼성 저가형 스마트폰 시리즈에서 발견된 앱클라우드 앱 - 사실은 지는 여름부터 지적돼 온 스파이웨어 - 이런 스마트폰 문제 쉽게 해결되지 않아...소비자 훈련이 더 중요 Youngsters! 테크를 가장 날카롭고 가치 있게 읽어주는 더테크엣지 아빠들이야. 한국을 대표하는 회사인 삼성에서 프라이버시 침해 논란이 일어났어. 삼성이

By 문가용 기자