Spark를 기본 설정으로 사용하다 보면, 엄청난 로그 때문에 답답할 때가 많다.
아래와 같이 정리하면, 깔끔하게 볼 수 있으니, 참고~
* log4j properties 파일을 변경하는 방법
1. $SPARK_HOME/conf 에서 "log4j.properties.template" 파일을 "log4j.properties"로 rename
2. 아래 2줄 추가
log4j.logger.org=OFF
log4j.logger.akka=OFF
* logback 사용 시
1. resources 디렉토리에 logback.xml 생성
2. 아래 2줄 추가
<logger name="org" level="OFF" />
<logger name="akka" level="OFF" />
* program에서 제어하는 방법
import org.slf4j.LoggerFactory;
import ch.qos.logback.classic.Level;
import ch.qos.logback.classic.Logger;
((Logger)LoggerFactory.getLogger("org")).setLevel(Level.OFF);
((Logger)LoggerFactory.getLogger("akka")).setLevel(Level.OFF);
program에서 제어할 때, 로그 라이브러리들이 충돌을 일으켜서 제대로 확인하지 못했지만,
옆에 있는 동료는 잘 된다고 하는 군요.. ㅠ_ㅠ



최근 덧글