AI vs Human 텍스트 판별 해커톤 -월간 데이콘 쇼츠

알고리즘 | 언어 | 분류 | 탐지

  • moneyIcon 상금 : 인증서
  • 271명 마감

1. 평가

  • 평가 산식: mAP@2
  • 1차 평가(Public Score): 테스트 데이터 중 랜덤 샘플 된 30%로 채점, 대회 기간 중 공개
  • 2차 평가(Private Score): 테스트 데이터의 70%로 채점, 대회 종료 직후 공개
  • 최종 순위는 선택된 파일 중에서 채점되므로, 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 함

(최종 파일 미선택시 또는 추가 제출 시 Public Score가 가장 높은 제출 파일로 자동 선택되므로 유의)

  • 대회 직후 공개되는 Private Score 랭킹은 최종 순위가 아니며, 코드 검증 후 최종 수상자가 결정됨
  • 대회 평가 규칙을 준수한 제출팀 중 Private Score를 기준으로 최종 순위를 결정
  • 동점자 발생의 경우, 기존 리더보드 순위 산정 방식을 따름 [링크]의 '리더보드 점수' 부분을 참고


2. 개인 또는 팀 참여 규칙

  • 팀이 아닌 개인(1인)으로만 참가 가능합니다.
  • 1일 제출 가능 횟수: 20회


 

3. 데이터 허용 범위

  • 대회 제공 데이터 이외의 외부 데이터 사용 가능



4. 사전 학습 모델 허용 범위

  • 사용에 법적 제약이 없고 논문으로 공개된 사전 학습된 모델(Pretrained Model Weight) 사용 가능
  • ChatGPT, BARD 등의 챗봇 서비스 및 LLM 관련 API 서비스 사용 가능



5. 유저 평가

  • 수상 인증서를 원하는 팀은 먼저 유저 평가를 받아야 합니다.
  • Private 순위 공개 후 코드 제출 기간 내 코드 공유 페이지에 코드 업로드
  • 제출 코드는 Private Score 복원이 가능해야 함
  • 코드 업로드가 불가능한 경우 github 링크 업로드(실행 방법 read.me에 기재)
  • 라벨링 기법, 모델 선정 이유, 코드 실행 방법, 코드 실행 환경 등 대회 참여 과정을 요약한 자유양식의 pdf 파일 업로드
  • 코드 실행 환경 및 유료 서비스(API 등) 이용 금액도 명시
  • 제목에 Private 순위와 사용한 모델, 코드에 대한 keyword 기재

예시) Private 1위, LGBM 모델, 00전처리 기법 활용

  • 대회 참가자는 공개된 코드 평가
  • 코드 오류, 외부 데이터 사용 등 코멘트를 댓글로 작성



6. 유의 사항

  • 1일 최대 제출 횟수: 20회
  • 이번 해커톤에 한하여 수기/Pseudo Labeling 허용
  • 사용 가능 언어: Python, R
  • 모든 학습, 추론의 과정 그리고 추론의 결과물들은 정상적인 코드를 바탕으로 이루어져야하며, 비정상적인 방법으로 얻은 제출물들은 적발 시 규칙 위반에 해당됩니다.
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일을 선택해야 함
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 엄격히 금지하고 있으며, 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해 주시기 바랍니다. https://dacon.io/notice/notice/13



7. 대회문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해 주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] 페이지 대회 문의 게시글에 댓글을 올려 주시기 바랍니다.


대회 주요 일정

  1. 09.13

    팀 병합 마감

  2. 10.27

    대회 시작

  3. 10.30

    대회 종료

  4. 11.01

    코드 제출 마감

  5. 11.05

    유저 평가 및 코드 검증

  6. 11.06

    최종 결과 발표

1. 평가

  • 평가 산식: mAP@2
  • 1차 평가(Public Score): 테스트 데이터 중 랜덤 샘플 된 30%로 채점, 대회 기간 중 공개
  • 2차 평가(Private Score): 테스트 데이터의 70%로 채점, 대회 종료 직후 공개
  • 최종 순위는 선택된 파일 중에서 채점되므로, 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일 1개를 선택해야 함

(최종 파일 미선택시 또는 추가 제출 시 Public Score가 가장 높은 제출 파일로 자동 선택되므로 유의)

  • 대회 직후 공개되는 Private Score 랭킹은 최종 순위가 아니며, 코드 검증 후 최종 수상자가 결정됨
  • 대회 평가 규칙을 준수한 제출팀 중 Private Score를 기준으로 최종 순위를 결정
  • 동점자 발생의 경우, 기존 리더보드 순위 산정 방식을 따름 [링크]의 '리더보드 점수' 부분을 참고


2. 개인 또는 팀 참여 규칙

  • 팀이 아닌 개인(1인)으로만 참가 가능합니다.
  • 1일 제출 가능 횟수: 20회


 

3. 데이터 허용 범위

  • 대회 제공 데이터 이외의 외부 데이터 사용 가능



4. 사전 학습 모델 허용 범위

  • 사용에 법적 제약이 없고 논문으로 공개된 사전 학습된 모델(Pretrained Model Weight) 사용 가능
  • ChatGPT, BARD 등의 챗봇 서비스 및 LLM 관련 API 서비스 사용 가능



5. 유저 평가

  • 수상 인증서를 원하는 팀은 먼저 유저 평가를 받아야 합니다.
  • Private 순위 공개 후 코드 제출 기간 내 코드 공유 페이지에 코드 업로드
  • 제출 코드는 Private Score 복원이 가능해야 함
  • 코드 업로드가 불가능한 경우 github 링크 업로드(실행 방법 read.me에 기재)
  • 라벨링 기법, 모델 선정 이유, 코드 실행 방법, 코드 실행 환경 등 대회 참여 과정을 요약한 자유양식의 pdf 파일 업로드
  • 코드 실행 환경 및 유료 서비스(API 등) 이용 금액도 명시
  • 제목에 Private 순위와 사용한 모델, 코드에 대한 keyword 기재

예시) Private 1위, LGBM 모델, 00전처리 기법 활용

  • 대회 참가자는 공개된 코드 평가
  • 코드 오류, 외부 데이터 사용 등 코멘트를 댓글로 작성



6. 유의 사항

  • 1일 최대 제출 횟수: 20회
  • 이번 해커톤에 한하여 수기/Pseudo Labeling 허용
  • 사용 가능 언어: Python, R
  • 모든 학습, 추론의 과정 그리고 추론의 결과물들은 정상적인 코드를 바탕으로 이루어져야하며, 비정상적인 방법으로 얻은 제출물들은 적발 시 규칙 위반에 해당됩니다.
  • 최종 순위는 선택된 파일 중에서 채점되므로 참가자는 제출 창에서 자신이 최종적으로 채점 받고 싶은 파일을 선택해야 함
  • 대회 직후 공개되는 Private 랭킹은 최종 순위가 아니며 코드 검증 후 수상자가 결정됨
  • 데이콘은 부정 제출 행위를 엄격히 금지하고 있으며, 데이콘 대회 부정 제출 이력이 있는 경우 평가가 제한됩니다. 자세한 사항은 아래의 링크를 참고해 주시기 바랍니다. https://dacon.io/notice/notice/13



7. 대회문의

  • 대회 운영 및 데이터 이상에 관련된 질문 외에는 답변을 드리지 않고 있습니다. 기타 질문은 토론 페이지를 통해 자유롭게 토론해 주시기 바랍니다.
  • 데이콘 답변을 희망하는 경우 [토크] 페이지 대회 문의 게시글에 댓글을 올려 주시기 바랍니다.


대회 주요 일정

  1. 09.13

    팀 병합 마감
  2. 10.27

    대회 시작
  3. 10.30

    대회 종료
  4. 11.01

    코드 제출 마감
  5. 11.05

    유저 평가 및 코드 검증
  6. 11.06

    최종 결과 발표