컴퓨터 지식 네트워크 - 컴퓨터 소프트웨어 - 바이두의 행운의 역사를 더 알고 싶어요

바이두의 행운의 역사를 더 알고 싶어요

검색엔진 개발의 역사 1990년 이전에는 누구도 인터넷을 검색할 수 없었습니다.

모든 검색 엔진의 조상은 몬트리올 McGill 대학의 학생들인 Alan Emtage, Peter Deutsch 및 Bill Wheelan이 1990년에 발명한 Archie(Archie FAQ)입니다. 그 당시에는 아직 World Wide Web이 등장하지 않았지만 여전히 네트워크상의 파일 전송이 상당히 빈번했으며, 여러 분산된 FTP 호스트에 많은 수의 파일이 흩어져 있었기 때문에 Alan Emtage 등은 쿼리하기가 매우 불편했습니다. 파일 이름으로 검색할 수 있는 시스템을 개발하려고 생각했는데 Archie가 있습니다. Archie는 인터넷에 있는 익명 FTP 웹사이트의 파일을 자동으로 색인화하는 최초의 프로그램이지만 아직 진정한 검색 엔진은 아니었습니다. Archie는 검색 가능한 FTP 파일 이름 목록입니다. 사용자는 검색할 정확한 파일 이름을 입력해야 하며, Archie는 파일을 다운로드할 수 있는 FTP 주소를 사용자에게 알려줍니다.

Archie의 인기와 이에 영감을 받아 네바다 대학교 시스템 컴퓨팅 서비스에서는 1993년에 Gopher(Gopher FAQ) 검색 도구 Veronica(Veronica FAQ)를 개발했습니다. Jughead는 최신 Gopher 검색 도구입니다.

프로그래머에게 로봇이라는 단어는 특별한 의미를 지닌다. 컴퓨터 로봇은 인간이 도달할 수 없는 속도로 작업을 반복적으로 수행할 수 있는 자동 프로그램을 말합니다. 정보를 검색하는 데 특별히 사용되는 로봇 프로그램은 거미처럼 인터넷을 기어 다니기 때문에 검색 엔진의 로봇 프로그램을 스파이더(스파이더 FAQ) 프로그램이라고 합니다. 세계 최초의 Spider 프로그램은 MIT Matthew Gray의 World Wide Web Wanderer로, 인터넷의 발전 규모를 추적하는 데 사용됩니다. 처음에는 인터넷의 서버 수를 계산하는 데에만 사용되었지만 나중에는 웹 주소(URL)도 캡처하도록 개발되었습니다.

Wanderer에 대응하는 Martijn Koster는 1993년 10월에 Archie의 HTTP 버전에 해당하는 ALIWEB(Martijn Koster Annouces the Availability of Aliweb)를 만들었습니다. ALIWEB은 네트워크 검색 로봇을 사용하지 않습니다. 웹사이트 관리자가 웹페이지를 ALIWEB에 포함시키려면 나중에 모든 사람이 Yahoo로 알고 있는 것과 유사하게 각 웹페이지의 프로필 색인 정보를 제출해야 합니다.

인터넷의 급속한 발전으로 인해 새로운 웹 페이지를 모두 검색하는 것이 점점 더 어려워졌습니다. 따라서 일부 프로그래머는 Wanderer를 기반으로 기존 Spider 프로그램의 작동 원리를 일부 개선했습니다. . 모든 웹 페이지에는 다른 웹 사이트에 대한 링크가 있을 수 있으므로 하나의 웹 사이트에서 시작하여 모든 웹 페이지의 모든 링크를 추적하면 전체 인터넷을 검색할 수 있다는 생각입니다. 1993년 말까지 이 원칙을 기반으로 한 여러 검색 엔진이 등장하기 시작했습니다. 가장 유명한 세 가지 엔진은 스코틀랜드의 JumpStation, 콜로라도 대학교 Oliver McBryan의 The World Wide Web Worm(McBryan의 World Wide Web 웜에 대한 첫 번째 언급), NASA입니다. RBSE(리포지토리 기반 소프트웨어 엔지니어링) 스파이더. JumpStation과 WWW Worm은 검색 도구가 데이터베이스에서 일치하는 정보를 찾는 순서대로만 검색 결과를 정렬하므로 정보 상관 관계가 전혀 없습니다. RBSE는 HTML 파일의 텍스트를 색인화하는 최초의 검색 엔진이며, 검색 결과 순위에 키워드 문자열 일치 정도 개념을 도입한 최초의 엔진이기도 합니다.

익사이트의 역사는 1993년 2월로 거슬러 올라간다. 스탠포드 대학생 6명의 아이디어는 단어 관계를 분석해 인터넷상의 많은 양의 정보를 보다 효과적으로 검색할 수 있다는 것이었다. . 1993년 중반까지 이것은 Architext의 전액 자금 지원 프로젝트였으며, Architext는 나중에 웹 서버용 Excite라고 불리는 웹마스터가 자신의 사이트에서 사용할 수 있는 검색 소프트웨어 버전을 출시했습니다. (참고: Excite는 이후 컨셉 검색으로 유명해졌습니다. 2002년 5월 Infospace에 인수된 Excite는 자체 검색 엔진을 중단하고 메타 검색 엔진인 Dogpile로 전환했습니다.)

1994년 1월 처음으로 검색 및 탐색 가능한 분류 디렉토리 ENet Galaxy(Tradewave Galaxy)가 온라인에 있습니다. 웹사이트 검색 외에도 Gopher 및 Telnet 검색도 지원합니다.

1994년 4월, 두 명의 스탠포드 대학 박사과정 학생, 중국계 미국인 Jerry Yang(Yang Zhiyuan)과 David Filo***가 Yahoo를 공동 창립했습니다(Jerry Yang은 유즈넷 그룹에 Yahoo 데이터베이스를 알립니다. 1996년). 방문 횟수와 포함된 링크 수가 늘어나면서 Yahoo 디렉토리는 간단한 데이터베이스 검색을 지원하기 시작했습니다. Yahoo!의 데이터는 수동으로 입력되기 때문에 진정한 검색 엔진으로 분류될 수 없으며 실제로는 검색 가능한 디렉터리일 뿐입니다. Wanderer는 URL만 크롤링하지만 URL의 정보 내용이 너무 작아 URL만으로는 많은 정보를 명확하게 설명할 수 없으며 검색 효율성이 매우 낮습니다. Yahoo!에 포함된 웹사이트에는 모두 소개 정보가 함께 제공되므로 검색 효율성이 크게 향상됩니다. (참고: Yahoo는 앞으로도 계속 Altavista, Inktomi 및 Google을 사용하여 검색 엔진 서비스를 제공할 예정입니다.)

1994년 초, 워싱턴 대학의 CS 학생인 Brian Pinkerton은 소규모 프로젝트인 WebCrawler를 시작했습니다( Brian Pinkerton이 Webcrawler의 출시를 발표했습니다. WebCrawler가 1994년 4월 20일 공식적으로 출시되었을 때 WebCrawler에는 6,000개 서버의 콘텐츠만 포함되어 있었습니다. WebCrawler는 파일의 전체 텍스트 검색을 지원하는 인터넷 최초의 전체 텍스트 검색 엔진입니다. 이전에는 사용자가 URL과 초록을 통해서만 검색할 수 있었으며, 일반적으로 초록은 수동 주석이나 텍스트의 처음 100단어에서 자동으로 나왔습니다. 프로그램에 의해 검색됩니다. (나중에 webcrawler는 AOL과 Excite에 차례로 인수되었으며 현재는 exsite와 같은 메타 검색 엔진 Dogpile을 사용하고 있습니다.)

Lycos(Carnegie Mellon University Center for Machine Translation, Lycos 발표)는 웹 크롤러 역사상 또 다른 중요한 발전입니다. 검색 엔진. Carnegie Mellon University의 Michael Mauldin은 John Leavitt의 스파이더 프로그램을 그의 색인 프로그램에 통합하여 Lycos를 만들었습니다. 1994년 7월 20일, 데이터량이 54,000개에 달하는 라이코스(Lycos)가 공식 출시되었다. 관련성 정렬 ​​외에도 Lycos는 접두사 일치 및 문자 유사성 제한도 제공합니다. Lycos는 검색 결과에서 웹 페이지 자동 요약을 최초로 사용했으며, 가장 큰 장점은 다른 검색 엔진의 데이터 양을 훨씬 초과한다는 것입니다. 1994년 8월 - 394,000개 문서, 1995년 1월 - 150만 개 문서, 1996년 11월 - 6천만 개 이상의 문서. (참고: 1999년 4월 Lycos는 검색 엔진 서비스를 제공하기 위해 Spider를 중단하고 Fast로 전환했습니다.)

Infoseek(Steve Kirsch가 Infoseek 검색 엔진의 무료 데모 발표)도 회사의 또 다른 중요한 검색 엔진입니다. 1994년 1월에 설립되었다고 주장했지만 검색 엔진은 연말까지 대중에게 공개되지 않았습니다. 처음에 Infoseek는 별다른 혁신 없이 Yahoo!와 Lycos의 개념을 따랐던 그저 눈에 띄지 않는 검색 엔진이었습니다. 그러나 그 역사와 그에 따른 호평은 무대에 처음으로 서는 것이 처음부터 항상 중요한 것은 아니라는 것을 증명합니다. Infoseek의 사용자 친화적인 인터페이스와 수많은 추가 서비스(예: UPS 추적, 뉴스, 디렉터리 등)로 인해 Infoseek의 인기가 점점 높아지고 있습니다. 1995년 12월 넷스케이프와의 전략적 협약을 통해 강력한 검색 엔진으로 자리매김했습니다. 사용자가 넷스케이프 브라우저에서 검색 버튼을 클릭하면 이전에 야후!에서 제공하던 인포시크의 검색 서비스가 팝업으로 나타납니다. (참고: Infoseek은 나중에 그 관련성으로 알려졌습니다. 2001년 2월 Infoseek는 자체 검색 엔진을 중단하고 대신 Overture의 검색 결과를 사용하기 시작했습니다.)

1995년에 새로운 형태의 검색 엔진이 등장했습니다. 메타 검색 엔진 정리. 사용자는 검색 요청을 한 번만 제출하면 되며, 메타 검색 엔진은 이를 미리 선택된 여러 독립 검색 엔진에 제출하기 전에 변환 및 처리를 담당합니다. 각 독립 검색 엔진에서 반환된 모든 쿼리 결과는 중앙 집중화되어 처리되어 반환됩니다. 사용자. 최초의 메타 검색 엔진은 워싱턴 대학의 석사과정 학생인 Eric Selberg와 Oren Etzioni가 만든 Metacrawler였습니다.

메타 검색 엔진의 개념은 좋아 보이지만 검색 결과는 결코 이상적이지 않으므로 어떤 메타 검색 엔진도 강력한 위치를 차지하지 못했습니다.

DEC의 AltaVista(2001년 여름부터 일부 네티즌은 p-roxy를 통해 액세스해야 하며 p-roxy는 사용할 수 없으며 qbs각 단일 선택 altavista 검색, 검색 결과의 첫 번째 페이지만 가능) 표시됨)은 1995년에 출시된 후발 제품으로 올해 12월에야 데뷔했습니다(AltaVista 공개 베타 보도 자료). 그러나 수많은 혁신적인 기능으로 인해 당시 검색 엔진의 상위권에 빠르게 도달했습니다. Altavista의 가장 눈에 띄는 장점은 속도입니다(검색 엔진 9238: 웃긴데 Altavista를 설계한 목적은 단지 DEC Alpha 칩의 강력한 컴퓨팅 성능을 보여주기 위한 것이라고 합니다).

Altavista의 다른 새로운 기능은 검색 엔진의 정의를 영원히 바꿔 놓았습니다.

AltaVista는 자연어 검색을 지원하는 최초의 검색 엔진입니다. AltaVista는 고급 검색 구문(예: AND, OR, NOT 등)을 구현한 최초의 검색 엔진입니다. 사용자는 AltaVista를 사용하여 뉴스 그룹(뉴스 그룹)의 콘텐츠를 검색하고 인터넷에서 기사를 얻을 수 있으며, 사진 이름에 있는 텍스트를 검색하고, 제목을 검색하고, Java 애플릿을 검색하고, ActiveX 개체를 검색할 수도 있습니다. AltaVista는 또한 사용자가 웹 인덱스 데이터베이스에 URL을 제출하거나 삭제할 수 있도록 지원하고 24시간 이내에 온라인에 접속할 수 있는 최초의 검색 엔진이라고 주장합니다. AltaVista의 가장 흥미로운 새로운 기능 중 하나는 URL에 대한 링크가 있는 모든 웹사이트를 검색하는 것입니다. AltaVista는 사용자 중심 인터페이스에서도 많은 혁신을 이루었습니다. 사용자가 검색어를 더 잘 표현하는 데 도움이 되는 "팁"을 검색창 영역 아래에 배치하므로, 몇 번 검색하면 사용자는 이전에 알지 못했던 많은 흥미로운 기능을 볼 수 있습니다. 이 일련의 기능은 다른 검색 엔진에서 점차 널리 채택되었습니다. 1997년에 AltaVista는 사용자가 수천 개의 검색 결과에서 원하는 것을 찾을 수 있도록 도와주는 그래픽 프레젠테이션 시스템인 LiveTopics를 출시했습니다.

그리고 HotBot이 등장했습니다. 1995년 9월 26일, UC Berkeley CS 조교 Eric Brewer와 박사과정 학생 Paul Gauthier가 Inktomi(UC Berkeley, Inktomi 발표)를 설립했습니다. 1996년 5월 20일 Inktomi 회사가 설립되고 강력한 HotBot이 세상에 등장했습니다. 매일 천만 개가 넘는 페이지를 크롤링하고 색인을 생성할 수 있다고 주장하므로 다른 검색 엔진보다 훨씬 더 많은 새로운 콘텐츠가 있습니다. HotBot은 또한 쿠키를 광범위하게 사용하여 사용자의 개인 검색 기본 설정을 저장합니다. (Hotbot은 다음 해에 가장 인기 있는 검색 엔진 중 하나였으며 나중에 Lycos에 인수되었습니다.)

Northernlight는 1995년 9월 매사추세츠 주 케임브리지에서 설립되었습니다. 1997년 8월 Northernlight 검색 엔진이 공식적으로 출시되었습니다. . 나타나다. 가장 큰 데이터베이스를 갖춘 검색 엔진 중 하나였으며 중지 단어가 없었고 뛰어난 최신 뉴스, 7,100개 이상의 출판물로 구성된 특별 컬렉션, 우수한 고급 검색 구문을 갖추고 있으며 간단한 자동 검색 결과 분류를 최초로 지원했습니다. (2002년 1월 16일에 Northernlight 검색 엔진이 종료되었으며 이후 Divine에 인수되었습니다. 그러나 Nlresearch에서는 "World Wide Web 전용"을 선택하여 Northernlight 검색 엔진을 계속 사용할 수 있습니다.)

1998 이전 10월, Google은 스탠포드 대학의 소규모 프로젝트인 BackRub에 불과했습니다. 1995년 박사과정 학생 래리 페이지(Larry Page)가 검색 ​​엔진 디자인을 연구하기 시작했고 1997년 9월 15일에 google.com이라는 도메인 이름을 등록했습니다. 1997년 말 Sergey Brin, Scott Hassan, Alan Steremberg의 참여로 BachRub은 시작되었습니다. 데모를 제공합니다. 1999년 2월, 구글은 알파 버전에서 베타 버전으로의 전환을 완료했습니다. 구글은 1998년 9월 27일을 창립일로 인식하고 있습니다.

통합 검색, 다국어 지원, 사용자 인터페이스 및 Pagerank, 동적 요약, 웹 스냅샷, DailyRefresh, 다중 문서 형식 지원, 지도 주식 사전 인적 검색 등 기타 기능에 대한 Google의 혁신, Altavista와 마찬가지로 이제 검색 엔진의 정의가 완전히 바뀌었습니다.

2000년대 중반 이전에는 구글이 검색 정확도로 높은 평가를 받았음에도 불구하고, 다른 검색 엔진에 비해 데이터베이스 규모가 크지 않고, 고급 검색 구문이 부족하여 이용 가치가 그다지 높지 않았으며, 승진이 빠르지 않았다.

2000년 중반에 데이터베이스가 업그레이드되고 Yahoo가 데이터베이스를 검색 엔진으로 선택한 후에야 데이터베이스가 급증했습니다.

Fast(Alltheweb)는 1997년 노르웨이 과학기술대학교(NTNU) 학술 연구의 부산물로 설립되었습니다. 1999년 5월에는 자체 검색 엔진인 AllTheWeb을 출시했습니다. Fast의 창립 목표는 세계에서 가장 크고 가장 빠른 검색 엔진이 되는 것이며, 지난 몇 년 동안 그 목표에 근접해 왔습니다. Fast (Alltheweb)의 웹 검색은 ODP를 사용하여 자동 분류, Flash 및 PDF 검색 지원, 다국어 검색 지원, 뉴스 검색, 이미지 검색, 비디오, MP3 및 FTP 검색도 제공하며 매우 강력한 고급 검색 기능을 제공합니다. 기능.

테오마(Teoma)는 1998년 러트거스 대학교(Rutgers University)의 프로젝트로 시작되었습니다. Apostolos Gerasoulis 교수는 Tao Yang 교수 등을 이끌고 뉴저지 주 피스카타웨이에서 Teoma를 설립했습니다. 2001년 봄에 데뷔했습니다. 2001년 9월 질문 기반 검색 엔진 Ask Jeeves에 인수되었으며 2002년 4월에 다시 출시되었습니다. Teoma의 데이터베이스는 현재 규모가 작지만 두 가지 뛰어난 기능을 갖추고 있습니다. 자동 분류와 유사한 Refine을 지원하고 전문적인 링크 디렉토리인 Resources도 제공합니다.

와이즈넛은 한국인 윤여걸이 설립한 회사다. 베타 버전은 2001년 봄에 출시되었고, 정식 버전은 2001년 9월 5일에 출시되었습니다. 2002년 4월 카테고리 디렉토리 제공업체인 Looksmart에 인수되었습니다. Wisenut에는 자동 분류 및 관련 검색어를 포함하는 WiseGuide와 검색 결과를 미리 볼 수 있는 Sneak-a-Peek라는 두 가지 뛰어난 기능도 있습니다.

Gigablast는 전 Infoseek 엔지니어인 Matt Wells가 설립했으며 2002년 3월에 프리베타 버전을 선보이고 2002년 7월 21일에 베타 버전을 출시했습니다. Gigablast의 데이터베이스는 현재 상대적으로 작지만 웹 페이지 스냅샷도 제공합니다. 특별한 기능은 웹 페이지를 제출하자마자 검색할 수 있는 웹 페이지의 즉각적인 색인 생성입니다(참고: 이 스패머의 고기 빵 기능은 다음과 같습니다). 임시 폐쇄).

오픈파인드는 1998년 1월 설립됐다. 그 기술은 대만 국립중성대학교 우셩 교수가 이끄는 GAIS 연구소에서 유래됐다. Openfind는 처음에는 중국 검색 엔진에 불과했습니다. 전성기에는 Sina, Qimo, Yahoo에 중국 검색 엔진을 제공하기도 했습니다. Baidu와 Google로 점차 분할되었습니다. 2002년 6월, Openfind는 GAIS30 프로젝트를 기반으로 Openfind 검색 엔진 베타 버전을 다시 출시하고 PolyRankTM를 출시하여 총 35억 개의 웹 페이지를 크롤링했다고 발표하고 이후 영어 검색 분야에 진출하기 시작했습니다. , 기술 업그레이드가 크게 가속화되었습니다.

북경대학교 스카이넷은 국가 '9차 5개년 계획' 핵심 과학기술 프로젝트 '중국어 인코딩 및 분산 중국어 및 영어 정보 검색'의 연구 결과입니다. 1997년 북경대학교 컴퓨터과학과 연구실. 2019년 10월 29일 CERNET에서 정식으로 서비스가 제공되었습니다. 2000년 초에 Tianwang 검색 엔진의 새로운 연구 그룹이 설립되었습니다. 이는 국가 973 핵심 기초 연구 개발 계획 프로젝트 기금의 자금으로 개발되었으며 약 6천만 개의 웹 페이지를 보유하고 있습니다. 강력한 FTP 검색 기능.

Baidu 2000년 1월, 하이퍼링크 분석 특허의 발명자이자 전 Infoseek 수석 엔지니어였던 Robin Li와 그의 친구 Xu Yong(버클리 캘리포니아 대학교 박사)이 중관춘에 바이두를 설립했습니다. , 베이징. Baidu.com 검색 엔진 베타 버전은 2001년 8월에 출시되었으며(이전 Baidu는 Sohu, Sina, Tom 등 다른 포털에만 검색 엔진을 제공했습니다), Baidu 검색 엔진은 2001년 10월 22일에 공식 출시되었습니다. Baidu는 중국어 검색만 제공하지만 현재 9천만 개가 넘는 중국어 웹페이지를 포함하고 있어 아마도 가장 큰 중국어 데이터베이스일 것입니다. Baidu 검색 엔진의 다른 기능으로는 웹 페이지 스냅샷, 웹 페이지 미리 보기/모든 웹 페이지 미리 보기, 관련 검색어, 오타 수정 팁, 뉴스 검색, 플래시 검색, 정보 표현 검색 등이 있습니다. 2002년 3월 Blitzen 프로젝트가 시작된 이후 기술 업그레이드가 크게 가속화되었습니다.

바이두: 중국판 구글은 어디까지 갈 수 있을까?

중국 검색엔진 기업 바이두가 8월 5일 미국 나스닥에 상장했으며 발행가는 27달러다. . 한때 장중 $150를 넘은 적도 있었고 최종적으로는 353.85% 상승한 $122.54에 마감했습니다. 바이두의 뛰어난 성과로 미국 상장 외국기업 중 거래 첫날 최고 실적을 거둔 주식이 됐다.

다양한 긍정적 요인이 주가 상승에 도움이 됐다. 바이두가 상장 첫날 강세를 보인 데에는 크게 두 가지 이유가 있었다.

첫째, 구글의 실증 효과였다. . 투자자들은 종종 바이두를 구글과 비교하며 바이두를 중국판 구글로 본다.

일부 분석가들은 바이두가 인기를 끄는 이유가 '중국'과 '검색'이라는 두 가지 핫스팟을 결합한 것이라고 보고 있다.

세계 최대 검색 서비스 제공업체인 구글의 기업공개(IPO) 가격은 100달러도 안 되지만, 상장 후 1년 만에 주가가 300달러를 돌파해 검색 시장이 거대하다는 점을 보여준다. 잠재적인. 중국 내 인터넷의 급속한 대중화로 인해 네티즌 수가 급격히 증가했으며, 중국 시장의 광대함은 일반적으로 외국인 투자자들에게 선호를 받았습니다.

둘째, 중국 컨셉주의 매력. 중국은 이미 세계 최대의 컴퓨터 시장이며, 세계에서 두 번째로 많은 인터넷 사용자를 보유하고 있습니다. 중국의 인터넷 사용자 수가 1억 명을 넘어섰습니다. Baidu는 이 시장에서 큰 점유율을 차지하고 있습니다. 위안화의 절상과 함께 외국인 투자자들은 일반적으로 중국과 검색 시장에 대해 낙관적이어서 투자자들은 Baidu를 선호합니다.

기업가 정신으로 가는 길 바이두의 발전 역사를 되돌아보면, 이 회사는 샨다와 마찬가지로 인터넷 산업의 급속한 발전의 기회를 포착하고 자신에게 맞는 빠른 발전 경로를 찾았습니다.

바이두는 1999년 말 미국 실리콘밸리에서 설립됐다. 창업자인 로빈 리(Robin Li) 바이두 회장은 정보검색 기술 고위급 전문가이자 하이퍼링크 분석 특허를 단독 보유하고 있다.

바이두는 창업 당시 다른 전문 검색 엔진과는 조금 다른 사업 모델을 선택했다. 포털 사이트와 협력하고, 검색 방문을 바탕으로 수익을 공유하는 바이두의 결제 모델이 꽤 인기를 끌었다. 당시 포털 웹사이트 중 Sina, NetEase 등 주요 포털이 Baidu에서 제공하는 서비스를 채택했습니다.

그러나 이 모델은 곧 한계를 드러냈다. 제한된 수의 포털로 인해 제한된 수요가 결정됩니다. 2001년 초, Robin Li는 Overture의 "유료 순위" 검색 엔진 비즈니스 모델을 차용했습니다. 고객은 검색 결과에서 순위를 결정하기 위해 키워드를 구매하고 입찰하고 동시에 다른 웹사이트에 광고를 게재하기 위해 문맥 콘텐츠 분석 기술을 사용했습니다. 이러한 파트너와 혜택을 공유하세요. 2002년부터 2003년까지 PPC는 빠르게 Baidu의 주요 수입원이 되었습니다. 2004년에는 Baidu 수익의 80%가 PPC에서 나왔습니다.

바이두는 현재 중국에서 두 번째로 방문자가 많은 웹사이트이며, 전 세계에서는 6번째로 방문자가 많은 웹사이트입니다. 데이터에 따르면 중국 인터넷 사용자의 검색 요청 중 48%가 바이두를 통해 완료되므로 바이두는 세계 최대의 중국 검색 엔진으로 알려져 있습니다. iResearch 데이터에 따르면 2004년 중국 검색 엔진 산업의 시장 규모는 12억 5천만 위안이었고, 그 중 검색 엔진 운영자의 수익은 6억 3500만 위안이었고, 채널 에이전트의 수익은 6억 2천만 위안으로 중국 수익 시장을 바이두가 점유했습니다. 검색 엔진 운영자의 점유율은 28%입니다. 독특한 비즈니스 모델의 성공으로 Baidu는 빠르게 중국 검색 엔진의 리더가 되었습니다.

중국어의 복잡성으로 인해 바이두의 검색 기술은 매우 복잡하며 회사는 유사한 검색 결과를 처리하기 위해 특수 언어 처리 기술을 개발했습니다. 현재까지 Baidu는 6억 9천만 개의 웹페이지, 8천만 개의 사진, 1천만 개의 미디어 파일을 연결했습니다. 여기에는 뉴스, 포럼 및 기타 콘텐츠도 포함됩니다.

PER비율 우려 바이두로서는 상장 첫날 우수한 성적이 좋은 출발이다. 하지만 “좋은 시작이 반이다”라는 말처럼 해외 자본시장의 길은 순탄치 않다. Sina 및 NetEase와 같은 선구자들의 주가는 등락을 겪었습니다. 예를 들어 NetEase는 2001년에 한때 최저 가격인 0.51달러에 도달했습니다. 캐피탈의 무자비한 이익 추구로 인해 회사가 월스트리트의 기대에 부응하지 못하면 주가가 급락하는 것은 극히 정상적인 일입니다.

바이두의 상장 첫날 뛰어난 성과와 급격한 주가 상승으로 인해 주가수익률은 시장 평균에서 빠르게 벗어나게 되었습니다. 이는 향후 주가 성과에 대한 숨겨진 걱정거리가 되었습니다. 일단 회사의 성장이 시장 기대치를 따라가지 못하면 주가 수준이 급격히 하락할 수 있습니다.

바이두는 2004년 이익 1200만 위안, 매출 1억1100만 위안을 기록했고 2003년에는 890만 위안 적자를 냈다. 2005년 1분기 이익은 140% 증가한 250만 위안을 기록했습니다. 바이두가 사업설명서에 공개한 재무자료에 따르면 바이두 주식발행가의 주가수익률은 540배, 금요일 종가의 주가수익률은 2450.8배에 달해 매우 놀랍다. 비교자료로 8월 6일 구글의 주가수익률은 85.66배였습니다. 나스닥에 상장된 다른 브라더인터넷 콘셉트 주식의 주가수익률은 기본적으로 30~50배 사이다. 바이두가 여전히 200%가 넘는 원래의 실적 성장세를 유지한다고 해도 현재 주가는 여전히 과대평가됐다는 의혹이 제기된다.

또한 검색 분야에서는 바이두가 만능이 아니다. 구글은 오랫동안 중국 시장을 엿보고 있으며, 현재 바이두의 지분 2.6%를 구글이 노리고 있다는 것은 모두가 알고 있는 사실이다. , 중국 시장에 진출할 때 인수합병을 선택했거나 독립적으로 개발하면 후속 개발이 Baidu의 시장 성과에 영향을 미칠 것입니다. 중국 검색의 복잡성과 현지 문화의 적응성으로 인해 외국 자본이 중국 시장을 점령하기는 어렵지만, 중국 시장의 강력한 자본력과 브랜드 우위를 과소평가할 수는 없습니다.

바이두의 중요한 수익원인 '입찰 순위'에 대해서도 의구심이 있었다. 입찰에 따라 검색 순위를 결정하는 이러한 비즈니스 모델은 검색 엔진의 공정성과 객관성을 훼손한다. 정보 간섭의 출현으로 인해 네티즌은 검색에 덜 의존하게 될 것입니다.

Baidu의 현재 MP3, 사진, 영화 검색 및 기타 서비스도 저작권 법적 분쟁에 직면해 있습니다. Baidu의 전반적인 상황에 영향을 미치기에는 충분하지 않지만 여전히 Baidu의 다른 비즈니스 모델을 홍보하는 데 일정한 장애물이 있습니다.

上篇: 휴대폰 카드를 5G 카드로 업그레이드하는 방법 下篇: MineCraft: LAN에서 친구들과 함께 구축하는 방법
관련 내용