오픈소스를 가져다 쓸다면 "유지보수와 튜닝 문제"에 골치 아파질 때가 많다. 오픈소스 덕분에 빠르게 시작할 수 있지만 내부에 대한 이해 부족으로 해법을 찾기 어렵기 때문이다. 혹자는 오픈소스에는 개발자들이 많아 질문만 던지면 즉시 해결될 것이란 유언비어에 빠지는 분도 있는데, 실무에서 만나게 되는 시급한 문제에 대해서는 즉시 응대와 해결은 꿈도 꾸질 말아야 한다. 특히 국내 실정은 더하다.
루씬도 역시 오픈소스인 것 같다. 루씬 2.3.2 소스를 보고 있는데 색인어 추출 루틴들인 Analyzer 계열 클래스들의 복잡도가 만만치 않다. Payload란 실험적인 개념, PositionIncrement 개념, 수많은 클래스들 등이 주석과 함께 코드에 뒤범벅이 되어 있어 웬만한 내공이 아니면 이해하기 어렵다.
내부 이해야 믿으면 그만이지만 검색엔진 적용 시에 대용량 문서를 접하게 되면 속도 튜닝이 아주 힘들다. 루씬 색인속도 향상에 관해서는 Job tech blog를 한번 읽어보라. 이 블로그에 나와있는 5가지 팁 중에 4번째에 이 글 주제인 토큰 재사용에 관한 언급이 있다(나머지 팁들도 유용하다.)
루씬에서는 색인어를 토큰(Token)이라 부른다. 검색엔진의 색인속도에 영향을 주는 여러 요인들이 있지만 토큰을 추출할 때 마다 토큰 문자열을 매번 재 생성하지 않고 토큰 버퍼(Token Buffer)를 만들어 재사용하는 방식으로 6-7배 이상의 속도 향상을 기대할 수 있다(전체 색인 속도 향상을 말하는 것은 아님에 주의하자.) 루씬도 2.3 버전부터 토큰 버퍼 개념을 적용하고 있다. 토큰 버퍼를 사용하면 추출속도를 높일 수는 있으나 다음 추출 시에 토큰버퍼 내용이 지워지므로 사용법에 주의해야 한다. 아래 실험코드가 있다.
내부 이해야 믿으면 그만이지만 검색엔진 적용 시에 대용량 문서를 접하게 되면 속도 튜닝이 아주 힘들다. 루씬 색인속도 향상에 관해서는 Job tech blog를 한번 읽어보라. 이 블로그에 나와있는 5가지 팁 중에 4번째에 이 글 주제인 토큰 재사용에 관한 언급이 있다(나머지 팁들도 유용하다.)
루씬에서는 색인어를 토큰(Token)이라 부른다. 검색엔진의 색인속도에 영향을 주는 여러 요인들이 있지만 토큰을 추출할 때 마다 토큰 문자열을 매번 재 생성하지 않고 토큰 버퍼(Token Buffer)를 만들어 재사용하는 방식으로 6-7배 이상의 속도 향상을 기대할 수 있다(전체 색인 속도 향상을 말하는 것은 아님에 주의하자.) 루씬도 2.3 버전부터 토큰 버퍼 개념을 적용하고 있다. 토큰 버퍼를 사용하면 추출속도를 높일 수는 있으나 다음 추출 시에 토큰버퍼 내용이 지워지므로 사용법에 주의해야 한다. 아래 실험코드가 있다.
GeSHi © 2004, Nigel McNie
- import java.io.BufferedReader;
- import java.io.IOException;
- import java.io.InputStreamReader;
- import java.io.StringReader;
- import java.net.URL;
- import org.apache.lucene.analysis.Token;
- import org.apache.lucene.analysis.TokenStream;
- import org.apache.lucene.analysis.standard.StandardAnalyzer;
- enum Interface {
- OLD_INTERFACE, NEW_INTERFACE
- }
- public class ReusableTokenTest {
- int textLength = 0;
- int numTokens = 0;
- long elapsedTime = 0;
- public void tokenInterface(Interface which) {
- try {
- StringReader reader = new StringReader(getLargeString());
- TokenStream tokens = new StandardAnalyzer().tokenStream(new String(
- "text"), reader);
- if (which == Interface.OLD_INTERFACE)
- this.useOldInterface(tokens);
- else
- this.useNewInterface(tokens);
- this.output(which);
- } catch (Exception e) {
- e.printStackTrace();
- }
- }
- private void output(Interface which) {
- StringBuffer sb = new StringBuffer();
- if (which == Interface.OLD_INTERFACE)
- sb.append("Old Interface");
- else
- sb.append("New Interface");
- sb.append("\t");
- sb.append(this.textLength);
- sb.append(" (chars)\t");
- sb.append(this.numTokens);
- sb.append(" (tokens)\t");
- sb.append(this.elapsedTime);
- sb.append(" (msec)");
- }
- private String getLargeString() throws IOException {
- URL url = new URL("http://insidesearch.tistory.com/");
- BufferedReader in = new BufferedReader(new InputStreamReader(url
- .openStream()));
- StringBuffer sb = new StringBuffer();
- String str;
- while ((str = in.readLine()) != null) {
- sb.append(str);
- }
- this.textLength = sb.length();
- return sb.toString();
- }
- private void useOldInterface(TokenStream tokens) throws IOException {
- Token token;
- useToken(Interface.OLD_INTERFACE, token);
- }
- }
- private void useNewInterface(TokenStream tokens) throws IOException {
- Token token = new Token();
- useToken(Interface.NEW_INTERFACE, token);
- }
- }
- private void useToken(Interface m, Token token) {
- this.numTokens++;
- if (m == Interface.NEW_INTERFACE) {
- String s = new String(token.termBuffer(), 0, token.termLength());
- }
- else {
- String s = token.termText();
- }
- }
- new ReusableTokenTest().tokenInterface(Interface.OLD_INTERFACE);
- new ReusableTokenTest().tokenInterface(Interface.NEW_INTERFACE);
- }
- }
Parsed in 0.125 seconds
위 코드는 http://insidesearch.tistory.com에서 비교적 큰 문자열을 받아 StandardAnalyzer를 사용해 토큰을 만든다. 이 코드를 돌려보면 새로운 인터페이스를 사용하면 6~7배 정도 속도가 향상됨을 볼 수 있다(아래 결과 참조). 이 정도면 수억개의 토큰을 다루는 대용량 문서들을 색인할 때는 수 십분 가량의 속도 향상을 기대할 수 있을 것이다.
Old Interface 56012 (chars) 9105 (tokens) 39 (msec)
New Interface 56012 (chars) 9105 (tokens) 6 (msec)
요약하면 새로운 토큰 인터페이스를 사용하여 추출 속도를 높이려면 기 정의된 토큰 객체를 재사용한다는 점만 기억하면 된다. 내부 토큰버퍼 크기 재조정 작업은 알아서 Token 클래스 내부에서 척척 해 준다. 외부에서 getTermText()를 사용해 내부에서 만들어준 문자열 객체를 사용하지 말고 termBuffer()를 호출해 내부 토큰버퍼(char [])에서 termLength() 만큼 복사해서 사용하면 된다.
@webJOY
참고로 토큰버퍼 내부 동작원리에 대해서는 DEV 용식님이 블로그을 참고하라.
출처: http://insidesearch.tistory.com/entry/루씬-고속-색인-방법-토큰을-재사용하라 [인사이드 서치]
'날리지 > 언어' 카테고리의 다른 글
Oracle XE Enable or Disable on boot (0) | 2017.10.16 |
---|---|
[Maven] maven build error (0) | 2017.09.21 |
멀티 쓰레드 (0) | 2017.06.23 |
[git] eclipse 에서 커밋이 안 될때 (0) | 2017.06.02 |
[개발방법론] 전통적인 개발 방법론 (0) | 2017.04.26 |