1. Trang chủ
  2. » Luận Văn - Báo Cáo

luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm

100 675 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 100
Dung lượng 2,39 MB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Với rất nhiều dữ liệu mà bộ máy tìm kiếm đang lưu trữ không những là nguồn tài nguyên không giới hạn mà còn là một quyển bách khoa toàn thư cho người dùng nhưng cũng là thách thức rất lớ

Trang 1

TRƯỜNG ĐẠI HỌC LẠC HỒNG

* * *

Dương Đăng Vinh

XÂY DỰNG CÔNG CỤ HỖ TRỢ TỐI ƯU HÓA WEBSITE CHO CÁC

TS NGUYỄN ĐỨC THÁI

Đồng Nai – Năm 2013

Trang 2

Tôi xin cam đoan luận văn thạc sĩ công nghệ thông tin “xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm” là kết quả của quá trình học tập,

nghiên cứu khoa học độc lập, nghiêm túc

Các số liệu trong luận văn là trung thực, có nguồn gốc rõ ràng, được trích dẫn và

có tính kế thừa, phát triển từ các số liệu, tạp chí, các công trình nghiên cứu đã được công bố, trên các website

Các phương pháp nghiên cứu trong luận văn được rút ra từ cơ sở lý luận và quá trình nghiên cứu

Đồng Nai, tháng 9 năm 2013

Dương Đăng Vinh

Trang 3

Lời đầu tiên tôi xin chân thành gửi lời cảm ơn sâu sắc đến thầy TS Nguyễn Đức Thái đã tận tình giúp đỡ tôi trong suốt thời gian học tập vừa qua, đặc biệt là đã hướng dẫn, truyền đạt những kiến thức, kinh nghiệm để tôi có thể hoàn thành đề tài này Tôi chân thành cảm ơn đến các thầy cô trường Đại Học Lạc Hồng nói chung và các thành cô khoa Công Nghệ Thông Tin nói riêng, nơi tôi công tác và nghiên cứu đã tạo nhiều điều kiện và hỗ trợ tôi trong suốt thời gian qua

Tôi cũng xin chân thành cảm ơn các thầy cô là các giảng viên giảng dạy lớp cao học công nghệ thông tin đã tận tình truyền đạt, chỉ bảo và cung cấp cho tôi những kiến thức hết sức cần thiết trong suốt thời gian học, và cũng xin gửi lời cảm ơn chân thành đến những người thân, bạn bè và đồng nghiệp đã giúp đỡ và động viên tôi trong suốt thời gian học tập cũng nhưng trong thời gian thực hiện luận văn

Chân thành cảm ơn!

Đồng Nai, tháng 9 năm 2013

Dương Đăng Vinh

Trang 4

Lời cam đoan i

Lời cảm ơn ii

Mục lục iii

Danh mục chữ viết tắt iv

Danh mục hình v

Danh mục bảng biểu vi

Mở đầu 1

Tóm lược đề tài 1

Nội dung thực hiện 2

Phạm vi ứng dụng 3

CHƯƠNG 1: GIỚI THIỆU ĐỀ TÀI 4

1.1 Giới thiệu 4

1.2 Mục tiêu đề tài 5

1.3 Phương pháp thực hiện đề tài 5

1.4 Bố cục luận văn 7

CHƯƠNG 2: NHỮNG CÔNG TRÌNH LIÊN QUAN 8

2.1 Tình hình nghiên cứu trong và ngoài nước 8

2.1.1 Tình hình ngoài nước 8

2.1.2 Tình hình trong nước 9

Chương 3: CƠ SỞ LÝ THUYẾT 10

3.1 Khái niệm SEO - Search Engine 10

3.1.1 Khái niệm SEO – Search Engine Optimization 10

3.1.2 Sự cần thiết của SEO 10

3.1.3 Giới thiệu về Search Engine 10

3.1.4 Phân loại Search Engine 12

3.1.5 Search Engine làm việc như thế nào 14

3.1.6 Crawler, Spider, Robot 16

3.1.7 XML sitemap, tạo file sitemap 19

3.2 SEO plan 21

Trang 5

3.2.3 SEO mũ đen và cách phòng tránh 28

3.3 Những nhân tố đáng lưu ý khi thiết kế website cho mục đích SEO 32

3.3.1 Hosting và domain name 32

3.3.2 Ngôn ngữ lập trình và SEO 35

3.4 Tối ưu hóa các yếu tố trong trang 37

3.4.1 Keyword và chiến lược keyword 37

3.4.2 Tối ưu bố cục của trang web 41

3.4.3 Tối ưu hóa các thành phần HTML 43

3.4.4 Cấu trúc URL 47

3.4.5 Xây dựng nội dung 49

3.5 Tối ưu hóa ngoài trang 51

3.5.1 Google Pagerank 52

3.5.2 Các phương pháp xây dựng backlink 54

3.5.3 Alexa Rank là gì? 55

3.5.4 Tìm hiểu về chuẩn W3C 56

3.6 Pay Per click – Google Adwords 57

3.6.1 PPC – Phân loại PPC 57

3.6.2 Google Adwords 58

3.7 Những công cụ SEO phổ biến 58

3.7.1 Google webmaster tools 58

3.7.2 Google Analytics 61

CHƯƠNG 4: XÂY DỰNG ỨNG DỤNG TỐI ƯU HÓA WEBSITE THEO TIÊU CHÍ ĐÁNH GIÁ CỦA CÁC CÔNG CỤ TÌM KIẾM 65

4.1 Mục tiêu chung 65

4.2 Công cụ Thông tin chung 65

4.2.1 Đặt bài toán 65

4.2.2 Phương pháp giải quyết 65

4.2.3 Kết quả 67

4.3 Công cụ SEO Onpage 67

4.3.1 Đặt bài toán 67

Trang 6

4.4 Công cụ SEO Offpage 72

4.4.1 Đặt bài toán 72

4.4.2 Phương pháp giải quyết 72

4.4.3Kết quả 75

4.5 Công cụ tạo sitemap 75

4.5.1 Đặt bài toán 75

4.5.2 Phương pháp giải quyết 75

4.5.3 Kết quả 76

Kết quả 77 Tài liệu tham khảo

Phụ lục

Trang 7

AJAX Asynchronous JavaScript and XML

Trang 8

Hình 2 - Cơ chế hoạt động của Google Spider 15

Hình 3 - File robots.txt 18

Hình 4 - Robot meta tag 19

Hình 5 - File sitemap.xml 20

Hình 6 - Organic SEO 26

Hình 7 - Black-hat SEO 28

Hình 8 - Tên miền 34

Hình 9 - Từ khóa 37

Hình 10 - Thẻ header 45

Hình 11 - Google PageRank 52

Hình 12 - Hiện thị Google Adword trên website 58

Hình 13 - Thêm URL vào Google webmaster tools 59

Hình 14 - Xác nhận chủ quyền website 59

Hình 15 - Bảng điều khiển 60

Hình 16 - Đăng ký Google Analytics 62

Hình 17 - Chấp nhận điề khoản GA 62

Hình 18 - Mã Google cung cấp 63

Hình 19 - Tổng quan Google Analytics 63

Hình 20 - Sơ đồ thông tin chung 66

Hình 21 - Sơ đồ Onpage 68

Hình 22 - Sơ đồ Offpage 73

Trang 9

Bảng 1 - Giá trị đặc biệt trong sitemap.xml 20

Bảng 2 - Những trường trong file sitemap.xml 21

Bảng 3 - Xác định độ cạnh tranh 39

Trang 10

Mở đầu

Tóm lƣợc đề tài

Hiện nay, với sự phát triển không ngừng của công nghệ, máy tính nói chung hay World Wide Web (www) nói riêng là một môi trường phổ biến để người dùng có thể tìm kiếm, quảng cáo, xây dựng thương hiệu trên đó quả thật nó đem lại một lợi ích không nhỏ cho con người Với hàng tỷ webstie đang tồn tại, đi kèm với nó là một khối lượng thông tin vô cùng to lớn Chính vì sự khổng lồ của thông tin như vậy dẫn đến việc tìm kiếm và tổng hợp thông tin không thuận lợi, gây nhiều khó khăn để có được một kết quả tìm kiếm như mong muốn

Người dùng ngày nay có thói quen sử dụng những công cụ tìm kiếm hơn là phải nhớ chính xác một website nào đó

Với rất nhiều dữ liệu mà bộ máy tìm kiếm đang lưu trữ không những là nguồn tài nguyên không giới hạn mà còn là một quyển bách khoa toàn thư cho người dùng nhưng cũng là thách thức rất lớn đối với các công cụ tìm kiếm, khi đó sẽ nảy sinh một vấn đề: làm thế nào để bộ máy tìm kiếm trả về kết quả tìm kiếm của người dùng một cách nhanh chóng và chính xác

Theo khảo sát mới của hãng nghiên cứu internetworldstats [20], có đến 90% người sử dụng Internet dùng công cụ tìm kiếm để tra cứu thông tin Và theo thống kê

có hơn (60%) số lượng website trên thế giới sử dụng không đúng những tiêu chí đánh giá mà các công cụ tìm kiếm đưa ra, nên các website mang nội dung chính xác mà người dùng cần tìm lại có tỉ lệ xuất hiện ở các công cụ tìm kiếm là rất thấp

Phát hiện một website bị lỗi về mặt tối ưu hóa là một bài toán được đặt ra trước nhu cầu thực tế đó, sẽ giúp cho các công cụ tìm kiếm hiểu được bố cục, nâng cao chất lượng và tăng hiệu quả đánh chỉ mục

Điều chỉnh lại những tiêu chí đánh giá của các công cụ tìm kiếm đưa ra trên mỗi website cũng là một vấn đề hết sức thực tế, sẽ giúp công cụ tìm kiếm tiết kiệm thời

Trang 11

gian trong việc sàng lọc thông tin, tổng hợp từ khóa chính, từ khóa miêu tả, link lên kết trong website và ngoài website

Nhận thấy đây là một đề tài mang tính khoa học cao, là nền tảng ứng dụng thực tế

và quan trọng là từ phương pháp nghiên cứu đề tài này có thể mở rộng để nghiên cứu cho mọi loại website trên thế giới Nên tác giả quyết định chọn đề tài “xây dựng công

cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm” để làm đề tài luận văn Đề tài tập trung vào việc phân tích, đánh giá website và đề xuất một phương pháp điều chỉnh phù hợp, bên cạnh đó áp dụng phương pháp này vào việc xây dựng một công cụ nhằm cải thiện vị trí xếp hạng trong công cụ tìm kiếm

Mục tiêu của Luận văn này sẽ đưa ra những lời khuyên, lời tư vấn cho người duyệt web, kể cả những người chủ website những kiến thức cơ bản và chuyên sâu về SEO, làm thế nào để SEO một website hiệu quả Phân biệt được những hình thức tối

ưu trong trang và tối ưu ngoài trang, một số cách phòng chống SEO mũ đen, cung cấp công cụ tạo sitemap trực tuyến, đưa ra những chỉ dẫn nhằm tối ưu hóa các tiêu chí của công cụ tìm kiếm, giới thiệu những công cụ hỗ trợ tốt nhất hiện nay để các webmaster

có được thông tin cần thiết để tối ưu hóa website

Song song với kiến thức về SEO, chúng tôi sẽ tiến hành thực hiện một web crawler để thu thập thông tin từ website người dùng để người dùng có được những thông báo những tối ưu cụ thể Công cụ được xây dựng trên nền tảng web thân thiện dễ

sử dụng

Nội dung thực hiện đề tài

- Tìm hiểu các tiêu chí đánh giá của công cụ tìm kiếm cụ thể như:

+ SEO onpages

+ SEO offpages

- Thiết kế và xây dựng công cụ hỗ trợ tối ưu hóa website dựa theo các tiêu chí đánh giá của công cụ tìm kiếm

Trang 12

Phạm vi ứng dụng

Công cụ được xây dựng nhằm mục đích hỗ trợ cho những nhà quản trị web để có được những thông tin bổ ích từ đó họ sẽ có được những chiến lược phù hợp để SEO website Công cụ không tiến hành phân tích từ khóa bởi tiến hành khá phức tạp và tầm chính xác không cao Để xử lý từ khóa hiện Google có hỗ trợ một công cụ phân tích khá tốt sẽ được nhắc đến ở phần sau

Trang 13

CHƯƠNG 1: GIỚI THIỆU ĐỀ TÀI

1.1 Giới thiệu

Vào đầu thập niên 90, sự xuất hiện của World Wide Web đã chính thức bắt đầu cho cuộc cách mạng internet bởi nó giúp cho chúng ta có thể tìm kiếm thông tin một cách nhanh chóng Đến năm 1994, trình duyệt web đầu tiên ra đời được phát triển bởi tập đoàn Nescape làm thay đổi cách giao tiếp của con người với internet Số lượng trang web gia tăng nhanh chóng, thế nên thông tin mà nó mang lại là vô cùng to lớn

Sự phát triển thông tin trên internet làm cho nhu cầu trao đổi, tìm kiếm thông tin trên mạng ngày càng nhiều khi đó nảy sinh một vấn đề: làm thế nào để tìm được dữ liệu mong muốn một cách nhanh nhất và chính xác nhất?

Sự ra đời của các hệ thống tìm kiếm đã đáp ứng được nhu cầu trên, với những công cụ như: Google, Yahoo!, Bing, Ask, Wolfram Alpha, …

Nhận thấy được tiền năng của Internet trong thời đại công nghệ thông tin, các doanh nghiệp bắt đầu xây dựng các website, nhằm quảng bá thương hiệu của mình đưa khách hàng đến gần với sản phẩm hơn Thế nhưng sự cạnh tranh của các doanh nghiệp

là điều không thể tránh khỏi, thông tin sản phẩm có đến với khách hàng hay không phụ rất nhiều vào một chiến lược marketing hợp lý

Ngày nay, với sự bùng nổ của Internet và sự thay đổi thói quen mua sắm, tiếp cận thông tin của người dùng internet thì một thương hiệu có nổi tiếng trên mạng hay không phụ thuộc vào thứ hạng có xuất hiện đầu tiên trên công cụ tìm kiếm

Theo nghiên cứu các hoạt động online tại Mỹ, của Pew Internet & American Life Project (4/2013) thì có tới 80% người trưởng thành sử dụng công cụ tiềm kiếm Trong các công cụ tiềm kiếm Google vẫn giữ vị trí thống trị với 67,5% tiếp theo là Bing 16.7% và Yahoo! chiếm 11.6%, Ask là 2.6% (theo comscore tháng 3/2013 tại Mỹ) Còn tại thị trường tiềm kiếm trên thế giới Google vẫn chiếm vị trí thống lĩnh với 83,22% (4/2013 – Net Market Share) và chiếm độc tôn trên thị trường di động

Trang 14

Chúng ta có thể thấy rằng những chỉ số ở trên đã chứng tỏ một điều là hoạt động tìm kiếm trên internet là một thị trường quảng cáo tiếp cận khách hàng tiềm năng vô cùng dễ dàng và nhanh chóng Bởi vì, khi sử dụng các công cụ tìm kiếm, người sử dụng xác định được trước điều mình cần và sản phẩm mình muốn, thống kê trên thế giới, khoảng 70% số lượng người tìm không tìm hết các kết quả tiềm kiếm ở trang đầu tiên, 97% không xem kết quả tìm kiếm đến trang thứ 3 Ở Việt Nam khoảng 97.23% số lượng người truy cập vào công cụ tìm kiếm Google (theo Net Market Share tháng 4/2013)

Bên cạnh việc sử dụng các dịch vụ quảng cáo của các công cụ tiềm kiếm như Google, Yahoo!, Bing, Ask, … hoặc các dịch vụ Marketing Online, thì nhiều doanh nghiệp hiện nay thực sự quan tâm đến việc làm thế nào để đưa thương hiệu của mình đến gần hơn với người sử dụng mà chi phí thì giảm thấp nhất

SEO (Search Engine Optimization) đã trở nên rất quen thuộc trên thế giới và đang trên đà phát triển rộng rãi tại Việt Nam

1.2 Mục tiêu đề tài

- Liệt kê những thông tin của website dựa trên nguồn HTML

- Xây dựng một quy trình chặt chẽ, nhằm đáp ứng tốt nhất các tiêu chí mà công cụ tìm kiếm đánh giá là thân thiện

- Phân tích và thống kê tất cả các tiêu chí đã thực hiện trên website và đưa ra kiến nghị cần thiết phải bổ sung để tối ưu hóa về mặt cấu trúc của website

- Xây dựng công cụ hỗ trợ tối ưu hóa website dựa theo các tiêu chí đánh giá của công cụ tìm kiếm nhằm cải thiện vị trí xếp hạng

1.3 Phương pháp thực hiện đề tài

Để tiếp cận những vấn đề trên cần phải có kiến thức tối thiểu về lập trình Do đó phương pháp nghiên cứu là:

 Khảo sát tổng quan về vấn đề nghiên cứu

Trang 15

Tham khảo các tài liệu, báo chí đã phát hành về lĩnh vực đang nghiên cứu

Tìm hiểu các cách thức tối ưu hóa để website phù hợp với công cụ tìm kiếm, đặc trưng ở các tiêu chí đánh giá sau:

 Tối ưu hóa trong trang

o Thẻ title: miêu tả ngắn gọn và chính xác nội dung trang web

o Thẻ metadescription: miêu tả tự nhiên nội dung trang web

o Thẻ meta keyword: là những từ khóa tối ưu hóa

o Thẻ heading h1, h2, h3, …., h6 của trang

o Thuộc tính ALT của hình ảnh

o Thuộc tính TITLE trong thẻ Anchor text (thẻ a)

 Tối ưu hóa ngoài trang

o Liên kết trong trang

 Liên kết với những link đã tồn tại ở website của mình

o Liên kết ngoài trang

 Liên kết với các website khác có cùng lĩnh vực Phân tích từng phần trong toàn bộ cấu trúc HTML của website, các phương pháp là:

 Duyệt toàn bộ mã HTML của website

 So sánh mã HTML của website với tính đầy đủ các tiêu chí mà công cụ tìm kiếm đưa ra

 Dựa trên các tiêu chí để chỉ ra những thiếu sót và dư thừa trong trang web

Nghiên cứu và đưa ra những giải pháp tối ưu hóa website nhằm đáp ứng tốt các tiêu chí mà công cụ tìm kiếm đưa ra, cụ thể các phương pháp như:

 Phân tích các tiêu chí đã có trên website

 Xây dựng các giải pháp cho từng trường hợp

Trang 16

Rút ra kết luận, dùng phương pháp thống kê dựa vào kết quả dò tìm và đưa ra các

đề nghị chỉnh sửa

Xây dựng công cụ dựa trên ngôn ngữ PHP và hệ quản trị CSDL MYSQL

Thử nghiệm công cụ với những website thực tế ở địa bàn Đồng Nai để đánh giá tính hiệu quả như: cải thiện thứ hạng website ở kết quả tìm kiếm theo tiêu chí SEO

1.4 Bố cục luận văn

Phần còn lại của luận văn gồm có bố cục như sau Chương 2 sẽ nói về những công trình liên quan, Chương này sẽ điểm qua một số công trình nghiên cứu trong và ngoài nước, để đánh giá quy mô, tầm ảnh hưởng với nhu cầu thực tế để có hướng đi đúng đắn Chương 3 đi vào cơ sở lý thuyết, trong chương này sẽ tìm hiểu cách thức hoạt động của các công cụ tìm kiếm, làm thế nào để lập một kế hoạch SEO hoàn hảo, cách lựa chọn tên miền, hosting hiệu quả, ngôn ngữ lập trình web có ảnh hưởng đến SEO ra sao, tối ưu hóa trong trang với những thẻ như title, a, h1, h2, h3, meta, img Cách lựa chọn từ khóa hiệu quả, nên đặt từ khóa ở đâu, mật độ như thế nào cho hiệu quả, ngoài

ra còn đề cập đến tối ưu hóa ngoài trang như xây dựng backlink, sử dụng dịch vụ pay per click như thế nào hiệu quả Chương 4 sẽ đi xây dựng ứng dụng tối ưu hóa website theo tiêu chí đánh giá của các công cụ tìm kiếm Đưa ra bài toán thực hiện, và hướng giải quyết và kết quả đạt được cho mỗi công cụ trong chương trình

Trang 17

CHƯƠNG 2: NHỮNG CÔNG TRÌNH LIÊN QUAN

2.1 Tình hình nghiên cứu trong và ngoài nước

và học giả nghiên cứu Shiva Saini, Kurukshetra University, đăng trên tạp chí International Journal of Computer Science, Engineering and Information Technology (IJCSEIT) (2011).[11]

Bài báo này nói về hệ thống cung cấp hiệu suất trong việc theo dõi các kỹ năng SEO của website, và cung cấp thông tin hỗ trợ phù hợp để tối ưu hóa trên công cụ tìm kiếm

 Bài báo: “Academic Search Engine Optimization (ASEO)” của 3 tác giả Joeran Beel, Bela Gipp, and Erik Wilde, University of Toronto (tháng 1 – 2010).[9]

Bài báo này giới thiệu và thảo luận các khái niệm về tối ưu hóa công cụ tìm kiếm (ASEO) Ngoài ra, còn thảo luận những rủi ro của việc tối ưu hóa bất hợp pháp

 Bài báo “Search Engine Optimization (SEO) as a dynamic online promotion technique” của tác giả George S Spais, Hy Lạp (năm 2010).[5]

Bài báo nêu ra khái niệm để tiếp cận công cụ tìm kiếm được sử dụng để hỗ trợ cho việc thiết kế, phân tích, điều tra kỹ thuật SEO

Các đề tài trên đều có ưu điểm cụ thể như đưa nội dung của website sát với những tiêu chí mà các công cụ tìm kiếm đưa ra nhưng các đề tài này không tập trung vào tối

Trang 18

ưu hóa các website có nội dung là bảng mã UTF8 Để áp dụng cho những website ở Việt Nam thì độ tối ưu không cao, vì các công cụ tìm kiếm hiểu từ khóa có dấu và từ khóa không dấu là 2 từ khóa khác nhau

2.1.2 Tình hình trong nước

 Luận văn tốt nghiệp đại học “Xây dựng công cụ hỗ trợ tối ưu website với SEO (Search Engine Optimization)”, là công trình nghiên cứu của hai sinh viên Nguyễn An Huy và Nguyễn Tiến Nghĩa của Trường Đại Học Bách Khoa Tp.Hồ Chí Minh, với nội dung cơ bản là cung cấp những kiến thức cơ bản về SEO và làm thế nào để SEO một website hiệu quả.[1]

 Có các câu lạc bộ về SEO (search engine optimization) Việt Nam cũng có những bài viết, báo cáo đăng trên các tạp chí.[2]

Các bài báo trên đều có những ưu điểm nhất định, tuy nhiên các báo cáo mang tính chất giới thiệu, khái niệm cơ bản, chưa đi sâu vào những kỹ thuật đánh giá chuẩn

Phát hiện một website bị lỗi về mặt tối ưu hóa là một bài toán được đặt ra trước nhu cầu thực tế đó, sẽ giúp cho các công cụ tìm kiếm hiểu được bố cục, nâng cao chất lượng và tăng hiệu quả đánh chỉ mục

Điều chỉnh lại những tiêu chí đánh giá của các công cụ tìm kiếm đưa ra trên mỗi website cũng là một vấn đề hết sức thực tế, sẽ giúp công cụ tìm kiếm tiết kiệm thời gian trong việc sàng lọc thông tin, tổng hợp từ khóa chính, từ khóa miêu tả, link lên kết trong website và ngoài website

Nhận thấy đây là một đề tài mang tính khoa học cao, là nền tảng ứng dụng thực tế

và quan trọng là từ phương pháp nghiên cứu đề tài này có thể mở rộng để nghiên cứu

cho mọi loại website trên thế giới Nên tác giả quyết định chọn đề tài “xây dựng công

cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm” để làm đề tài luận văn Đề

tài tập trung vào việc phân tích, đánh giá website và đề xuất một phương pháp điều chỉnh phù hợp, bên cạnh đó áp dụng phương pháp này vào việc xây dựng một công cụ nhằm cải thiện vị trí xếp hạng trong công cụ tìm kiếm

Trang 19

CHƯƠNG 3: CƠ SỞ LÝ THUYẾT

3.1 Khái niệm SEO - Search Engine

3.1.1 Khái niệm SEO – Search Engine Optimization

SEO được hiểu là tập hợp những phương pháp nhằm nâng cao thứ hạng Website trên các công cụ tiềm kiếm Mục tiêu của SEO là đưa trang web lên hàng đầu kết quả tìm kiếm theo một từ khóa cụ thể Nhưng chủ yếu là tinh chỉnh các thành phần thiết kế

và nội dung Nó còn được hiểu là một phần của quá trình quảng bá web SEO thường gồm hai quá trình: Tối ưu hóa các yếu tố trên trang (SEO onpage) và tối ưu hóa của yếu tố bên ngoài trang (SEO offpage)

Cần phân biệt rõ khái niệm SEM và SEO [10], SEM (Search Engine Marketing)

là tập hợp tất cả mọi thứ mà chúng ta cần làm để đảm bảo rằng trang web được sắp xếp trang hàng cao nhất trong kết quả tìm kiếm Điều này có nghĩa là không chỉ thực hiện SEO trên trang web mà còn sử dụng những chiến thuật khác, như sử dụng dịch dụ quảng cáo trả tiền PPC (Pay Per Click) hay đầu tư vào viết nội dung chuẩn SEO

3.1.2 Sự cần thiết của SEO

Trên thế giới ảo, sự xuất hiện đầu tiên trên trang kết quả tìm kiếm sẽ có cơ hội thu hút nhiều người tìm kiếm truy cập hơn Vì vậy nếu làm SEO tốt sẽ làm tăng được lượng người truy cập từ các trang web tìm kiếm Thậm chí, một chuyên gia quảng cáo

mạng cho rằng “trên Internet, thương hiệu không là gì cả Xuất hiện cao trên kết quả tìm kiếm mới quan trọng”

3.1.3 Giới thiệu về Search Engine

Search engine nguyên thủy là một phần mền nhằm tìm kiếm các trang web trên mạng internet Những thông tin thu nhập đó thường là từ khóa hay những cụm từ, những thông tin này có thể là toàn bộ nội dung của trang web, URL, các mã (code) tạo thành web, và các liên kết (link) trong và ngoài trang web Các thông tin này được đánh chỉ số index và lưu trong cơ sở dữ liệu.[18]

Trang 20

Search Engine là công cụ được xây dựng trên nền tảng web cho phép người sử dụng tìm kiếm thông tin, chúng ta có thể tìm bất kỳ thông tin nào bằng cách gõ vào từ khóa (keyword) cần tìm kiếm, bộ máy tìm kiếm sẻ trả về một danh sách kết quả các trang web có nội dung liên quan đến từ khóa đến từ khóa mà chúng ta nhập vào

Internet chứa hầu như tất cả những thông tin liên quan tới mọi lĩnh vực, mọi ngõ ngách trong cuộc sống Nhưng nó rất rộng, rộng đến mức gần như không ai có thể kiểm soát được Diện mạo của internet lại thay đổi quá nhanh chóng và mạnh mẽ Với

số lượng lên tới hàng chục tỉ trang, được lưu trữ trong hàng triệu server đặt khắp nơi trên toàn thế giới

Có thể ví internet như một biển dữ liệu khổng lồ, với muôn vàn những viên ngọc quí nằm giữa các hạt sạn Trong đời sống hàng ngày, nhu cầu tìm kiếm thông tin đóng vai trò vô cùng to lớn, và một trong những vấn đề bức thiết nhất của công nghệ hiện

nay là làm sao “đãi cát tìm vàng”, khai thác nguồn tài nguyên này một cách hợp lí, đem

lại lợi ích tốt nhất cho con người

Trước đây, người ta thường chia dữ liệu cần lưu trữ làm nhiều mục, đến lượt các mục con này lại được chia nhỏ hơn Tuy nhiên, những chủ đề được nêu trong Internet

đã rộng lớn đến nỗi sự phân chia này trở nên cực kì cồng kềnh và bất tiện Ngày nay, hầu hết mọi người đều sử dụng Search Engine để tìm kiếm thông tin

Hình 1 - Giao diện nhập từ khóa để tìm kiếm

(Nguồn: google.com.vn)Đối với mỗi Search Engine (Google, Yahoo!, Bing, Ask v.v…), người dùng truy vấn tìm kiếm hay nói đơn giản hơn là nhập vào một số từ khóa liên quan đến chủ đề cần

Trang 21

tìm và nhận được một danh sách các trang kết quả thông thường là những trang web chứa các từ khóa cần tìm kiếm, được sắp xếp theo một tiêu chí nào đó Những tiêu chí

này đều nhằm mục đích “đưa ra kết quả phù hợp nhất với yêu cầu tìm kiếm”

3.1.4 Phân loại Search Engine

Thuật ngữ "Cỗ máy tìm kiếm - Search Engine" được dùng chung để chỉ 2 hệ thống tìm kiếm: Một do các chương trình máy tính tự động tạo ra (Crawler-Based Search Engines) và dạng thư mục internet do con người quản lý (Human-Powered Directories)

Hai hệ thống tìm kiếm này tìm và lập danh mục website theo 2 cách khác nhau

Crawler-Based Search Engines - Hệ thống tìm kiếm trên nền tự động

Những cỗ máy tìm kiếm tự động như Google tạo ra những danh sách của họ tự động Chúng sử dụng các chương trình máy tính, được gọi là "robots", "spiders", hay crawlers để lần tìm thông tin trên mạng Khi có ai đó tìm kiếm một thông tin, các Search engine lập tức hiển thị các thông tin lưu trữ tương ứng Nếu bạn thay đổi những trang web của các bạn, những cỗ máy tìm kiếm tự động dần dần tìm thấy những sự thay đổi này, và điều đó có thể ảnh hưởng đến bạn được liệt kê như thế nào Những tiêu đề trang, nội dung văn bản và các phần tử khác đều giữ một vai trò nhất định

Human-Powered Directories - Các thư mục do con người quản lý

Các thư mục internet - ví dụ như dự án thư mục mở - Open Directory Project hoàn toàn phụ thuộc vào sự quản lý của con người Bạn đăng ký website của bạn vào thư mục với một vài dòng mô tả ngắn gọn hoặc các biên tập viên của thư mục viết giúp phần mô tả cho bạn - chúng phù hợp với nội dung và chủ đề của từng danh mục

Việc thay đổi những trang web của các bạn không có hiệu lực trên danh mục của các bạn Những thứ hữu ích để cải thiện vị trí xếp hạng với một cỗ máy tìm kiếm không có gì để làm với việc cải thiện một vị trí trong một thư mục Ngoại lệ duy nhất

là một website tốt, với nội dung tốt, có lẽ thích hợp hơn để được xem xét so với một website nghèo nàn

Trang 22

Hybrid Search Engines - Các hệ thống tìm kiếm tổng hợp

Ngày trước, mỗi cỗ máy tìm kiếm sử dụng giải thuật riêng để tạo sự khác biệt Đã

là hệ thống tìm kiếm tự động thì không kèm theo một thư mục internet và ngược lại Nhưng hiện nay, hầu hết hệ thống tìm kiếm đều là sự tổng hợp của hệ thống tìm kiếm

tự động và một thư mục do con người quản lý Ví dụ, Yahoo có Yahoo Directory, Google có Google directory (dựa trên thư mục Dmoz), MSN và các hệ thống tìm kiếm khác cũng vậy

Các thành phần của một cỗ máy tìm kiếm tự động

Những cỗ máy tìm kiếm tự động có ba phần tử chính Đầu tiên là spider, cũng được gọi là crawlers Spider đến thăm một trang web, đọc nó, và sau đó đi theo sau những mối liên kết tới những trang khác bên trong website Có nghĩa là, có ai đó tìm kiếm đến một trang, các spiders sẽ ghi nhớ điều đó Nó sẽ quay lại trang đó và theo chu

kỳ 1-2 tháng Như vậy, nếu trang web được tìm thấy càng nhiều, thì khả năng spiders quay trở lại càng lớn và như thế, kết quả tìm kiếm của bạn cũng được cải thiện theo

Mọi thứ spider tìm thấy đi vào trong phần thứ hai của cỗ máy tìm kiếm, chỉ mục (the index) Chỉ mục, đôi khi gọi là tài liệu, là một kho lưu trữ khổng lồ chứa đựng một

sự sao chép của mọi trang web mà spider tìm thấy Nếu một trang web thay đổi, thì danh sách này được cập nhật với thông tin mới

Đôi khi, cần phải có thời gian để các spiders lập chỉ mục cho một trang mới hay một trang được thay đổi nội dung Như vậy, sẽ có trường hợp: một trang đã được các spiders tìm đến, nhưng lại chưa được lập chỉ mục Và trong khoảng thời gian này, trang web sẽ hoàn toàn không tồn tại trên cỗ máy tìm kiếm

Phần mềm tìm kiếm chính là phần tử thứ ba của một cỗ máy tìm kiếm Đây là một chương trình máy tính có chức năng sàng lọc thông tin từ hàng triệu trang tương tự nhau để sắp xếp vị trí từng trang sao cho phù hợp nhất Đây chính là nơi mà các công

ty SEO khai thác để đưa một website nào đó lên vị trí đầu tiên khi được tìm kiếm với một hay nhiều từ khóa chỉ định

Trang 23

Major Search Engines: Các cỗ máy tìm kiếm chính

Tất cả các cỗ máy tìm kiếm tự động có những phần cơ bản được mô tả ở trên, nhưng có những sự khác nhau trong những phần này trong việc nó được điều chỉnh tác động như thế nào Đó là lý do tại sao cùng một từ khóa, khi tìm kiếm trên những cỗ máy tìm kiếm khác nhau thường cho ra những kết quả khác nhau Một ví dụ cụ thể: Nếu bạn đánh một từ khóa, thì Google, Yahoo, MSN, AOL, Ask hay Exactseek đều cho ra các kết quả khác nhau, dù có nhiều website hơi giống nhau

3.1.5 Search Engine làm việc nhƣ thế nào

Một sự thật cơ bản đầu tiên mà bạn cần biết đó là công cụ tìm kiếm không phải là con người Chính vì thế sẽ có sự khác nhau giữa con người và công cụ tìm kiếm trong việc đánh giá nội dung của một trang web Không giống như con người, công cụ tìm kiếm nội dung theo định hướng Mặc dù công cụ tìm kiếm được trang bị các công nghệ rất hiện đại tuy nhiên nó vẫn không đủ thông minh để có thể cảm nhận được vẻ đẹp của một mẫu thiết kế, thưởng thức âm thanh hoặc thấy được chuyển động của một video nào đó Vì vậy khi công cụ tìm kiếm thu thập dữ liệu của trang web nó chỉ nhìn vào các văn bản cụ thể để cố gắng hiểu được trang web này đang muốn nói về vấn đề gì Ở đây xin đơn cử một công cụ tìm kiếm đó là Google

Công cụ tìm kiếm có 3 bộ phận chính:

Bộ phận thu thập dữ liệu

Bộ phận thu thập dữ liệu hay còn có tên gọi thân thiện là Google Spider, google bot hoặc con nhện Một cách đơn giản bạn có thể hiểu rằng đây là một quá trình mà Google Spider sẽ đi từ trang này sang trang khác để khám phá nội dung và các liên kết trong trang web của bạn Đây là một quá trình mà Google Spider đang cố gắng tìm các trang web mới và cập nhật thêm vào chỉ mục của Google Chính vì thế, Google bot có thể coi là một chương trình thu thập dữ liệu và phát hiện ra các trang web mới, thay đổi các trang web hiện có và các truy tìm các liên kết không tồn tại, các dữ liệu này được

sử dụng để cập nhật cho các chỉ mục của Google

Bộ phận lập chỉ mục

Trang 24

Đây là quá trình xây dựng cơ sở dữ liệu của các từ khóa, cụm từ, các trang web

và các trang liên quan đến một lĩnh vực nào đó

Bộ phận xử lí – tính toán

Đây là quá trình tính toán của Google nhằm cung cấp các kết quả cho người tìm kiếm Các yếu tố này có tầm quan trọng khác nhau, tuy nhiên một trong những yếu tố quan trọng nhất để xếp hạng đó là dựa trên chất lượng nội dung và chất lượng những liên kết đến trang web của bạn

Hình 2 - Cơ chế hoạt động của Google Spider (Nguồn: http://tutorial.vietmoz.net)

Cơ chế hoạt động của Google Spider

- Đầu tiên Google Spider sẽ lấy danh sách các máy chủ và trang web phổ biến Sau đó nó sẽ bắt đầu tìm kiếm với một site bất kỳ, nó đánh chỉ mục các từ khóa trên trang và theo các liên kết tìm thấy bên trong trang web này

- Khi Spider xem xét các trang web (định dạng HTML)

Ví dụ: Các từ xuất hiện trong các thẻ tiêu đề, thẻ miêu tả… nó nhận định đây là phần quan trọng có liên quan đến sự tìm kiếm của người dùng sau này

Trang 25

Vì thế đối với mỗi website Google nó sẽ có nhiều phương pháp để index lại chỉ mục, liệt kê lại các từ khóa chính Nhưng dù dùng cách nào thì Google cũng luôn cố gắng làm cho hệ thống tìm kiếm diễn ra nhanh hơn để người dùng có thể tìm kiếm hiệu quả hơn

- Kế đó Google sẽ xây dựng chỉ mục

Xây dựng chỉ mục sẽ giúp cho các thông tin được tìm thấy một cách nhanh chóng Sau khi tìm thông tin trên trang web, Google Spider nhận ra rằng việc tìm kếm thông tin trên website là một quá trình không bao giờ kết thúc… bởi vì các quản trị trang web luôn thay đổi thông tin, cập nhật thông tin trên website và điều đó có nghĩa rằng Spider sẽ luôn phải thực hiện nhiệm vụ thu thập dữ liệu

Xử lý và tính toán:

Sau khi lập chỉ mục Google sẽ xử lý, tính toán và mã hóa thông tin để lưu trữ trong cơ sở dữ liệu Và khi có một truy vấn tìm kiếm thì hệ thống sẽ trả về các kết quả

có chứa nội dung hữu ích tương ứng với các truy vấn tìm kiếm của người dùng

Việc hiểu rõ cơ chế tìm kiếm của Google sẽ giúp cho các Seoer thêm nhiều kỹ năng để có thể tối ưu website thân thiện với Google nhằm mục đích đưa trang web có thứ hạng cao hơn

3.1.6 Crawler, Spider, Robot

Web Crawler, web spider [3] hay web robot là một chương trình tự động tìm kiếm trên Internet Nó được thiết kế để thu thập tài nguyên trên internet như trang web, hình ảnh, video, tài liệu Word, PDF cho phép hệ thống tìm kiếm đánh chỉ số sau đó

Quá trình thực hiện được gọi là web crawling hay spidering, rất nhiều công cụ tìm kiếm trên thế giới sử dụng spidering để cập nhập kho dữ liệu website của mình Chẳng hạn Google để lấy các thông tin trên các website rồi cập vào cơ sở dữ liệu của nó giúp người dùng tìm kiếm ra các trang theo ý muốn

Web crawler là một loại mà thường gọi là bot Hiểu như là, nó bắt đầu từ danh sách của các địa chỉ gọi là URL được gọi là seeds Nó sẽ vào các địa chỉ này lọc thông

Trang 26

tin rồi tìm các địa chỉ khác như URL để thêm chúng vào danh sách các địa chỉ đã duyệt qua gọi là crawl frontier Những link trong các crawl frontier sẽ tìm ra cho crawl đi đến những page khác trong website Sau đó, nó lại lặp lại quá trình đó duyệt qua những URL mới Cứ thế, nó lặp lại nhiều lần địa chỉ website và thu thập rất nhiều nội dung khác nhau giúp ta dễ dàng tìm kiếm thông tin của mình cần

Mỗi search engine có đều những tên riêng cho crawler cụ như:

o Ask: Teoma

o Baidu: Baidu

o Alta Vista: Scooter

o Google: GoogleBot

o Yahoo! Web search: Yahoo SLURP hay SLURP

Sự khác biệt duy nhất của trình duyệt web (web browser) và crawler là crawler chỉ thấy được giao diện html text

Tuy nhiên chúng ta có một vài trường hợp không mong muốn crawler vào website của mình để lấy thông tin như:

Website trong quá trình xây dựng, sữa chữa, bảo trì thì không mong muốn các crawler sẽ không vào website để index

Thông tin cá nhân, thông tin riêng tư: với những thông tin dạng này, chúng ta nên đặt password-protect để bảo vệ thông tin cá nhân, và không ai có thể lấy được thông tin

kể cả crawler Ngoài cách này, có thể sử dụng file robots.txt đặt trong web root

“/robots.txt” để tránh crawler tìm kiếm và lấy thông tin

Trên thế giới những web crawler rất nhiều và áp dụng vào nhiều loại hình website khác nhau như: web việc làm, web tin tức, web chứng khoán, web rao vặt, web sức khỏe, … Ở việt nam cũng xuất hiện khá nhiều như:

 Web việc làm: vietnamworks.com, kiemviec.com, tuyendung.com

 Web tin tức: vnexpress.net, dantri.com, vn, tuoitre.vn

 Web chứng khoán: cafef.vn, vietstock.vn, stockbiz.vn

 Web rao vặt: rongbay.com, 5giay.vn, raovat.com

Trang 27

 Web sức khỏe: suckhoedoisong.vn, dinhduong.com.vn, ykhoanet.com Ngoài crawler và spider ta còn có robots.txt Đây là một file dạng text, được đặt ở thư mục root của domain Nội dung này của file là hướng dẫn cho các crawler khi vào website để biết được những site nào crawler được phép đánh chỉ mục index hay không đánh chỉ mục

Cú pháp file robots.txt gồm hai phần: phần đầu là “User-agent”, xác định những User-agent hay crawler được cho phép truy cập vào các thư mục, file Phần hai là

“Disallow” và “Allows”, cho phép hoặc không cho phép User-agent được chỉ định ở phần một Như mẫu dưới đây sẽ cấm tất cả User-agent truy cập vào thư mục root ”/” của domain

Trang 28

Dưới đây ví dụ về robot meta tag của vnexpress.net

Robot meta tag cho crawler có thể được chỉ mục và follow các liên kết trong site hay không

Sau khác biệt cơ bản giữa robot meta tag và file robots.txt là file robots.txt có thể định dạng được từng crawler khi đánh chỉ mục theo những liên kết trong site, còn robot meta tag áp dụng với mọi crawler

Hình 4 - Robot meta tag (Nguồn: tác giả)

3.1.7 XML sitemap, tạo file sitemap

Sitemap là cách đơn giản và tốt nhất để người lập trình web báo cho những bộ máy tìm kiếm biết về các trang trong website mà có thể chúng không được tìm thấy bằng những cách thu thập thông tin bình thường Sitemap là một tập tin XML bao gồm danh sách các trang trong website cùng những đặc điểm mô tả của chúng Tạo ra Sitemap và gửi nó cho bộ máy tìm kiếm sẽ đảm bảo rằng bộ máy tìm kiếm biết đến toàn bộ các trang đang tồn tại trong website của bạn

Sitemap sẽ rất hữu dụng trong những trường hợp sau, website của bạn

+ Có nội dung động và thay đổi liên tục

+ Mới được xây dựng và có rất ít những liên kết đến từ những website khác + Có số lượng lớn tài liệu và nội dung mà có thể không hoàn toàn được liên kết đến từ những trang khác ngay chính trong website

Google cũng như các bộ máy tìm kiếm khác sẽ không đảm bảo rằng quá trình tìm kiếm và thu thập thông tin tự động có thể biết đến hết các trang trong website của bạn

Vì vậy, sitemap sẽ giúp cho các bộ máy tìm kiếm có cái nhìn và nắm bắt tốt hơn về cấu trúc website của bạn Thông qua sitemap, quá trình thu thập thông tin về website của bạn sẽ được đầy đủ hơn và dễ dàng hơn

Trang 29

Với bộ máy tìm kiếm khác nhau thì sẽ chấp nhận một số loại định dạng cho giao thức sitemap khác nhau, dựa trên nền tảng giao thức sitemap phổ biến nhất với tên gọi Sitemap Protocol Vì cùng một sitemap được tạo ra theo chuẩn giao thức này có thể sử dụng được cho nhiều bộ máy tìm kiếm khác nhau như Google, Yahoo!, Bing

Ví dụ: dưới đây là một phần sitemap.xml của vietnamnet.vn

Hình 5 - File sitemap.xml (Nguồn: tác giả)

Để tạo file sitemap.xml có thể dùng phần mềm, sử dụng một số website cung cấp dịch vụ online hoặc tự viết tay Có 2 yêu cầu với sitemap.xml đó là định dạng theo chuẩn escaped, tức là thay thế một số ký tự đặc biệt như “&”, “>”

Bảng 1 - Giá trị đặc biệt trong sitemap.xml

(Nguồn: tác giả)

Trang 30

Những trường hợp trong sitemap.xml

Bảng 2 - Những trường trong file sitemap.xml

(Nguồn: tác giả)

<urlset> Bắt buộc có Phương thức đóng gói file, chuẩn giao tiếp

protocol

<url> Bắt buộc có Tag cha của địa chỉ URL

<loc> Bắt buộc có Địa chỉ URL của trang page

<lastmod> Không bắt buộc Ngày cập nhật, chỉnh sửa sau cùng, được viết

theo dạng YYYY-MM-DD (Tham khảo tại

http://www.w3.org/TR/NOTE-datetime )

<changefreq> Không bắt buộc Các giá trị “Always”, “Hourly”, “Daily”,

“Weekly”, “Monthly”, “Yearly”, “Never”

<priority> Không bắt buộc Mối quan hệ giữa URL với site, giá trị từ 0 đến 1,

mặc định là 0.5, URL quan trọng nhất thường là trang chủ website

3.2 Xây dựng kế hoạch SEO

3.2.1 Xây dựng một kế hoạch SEO

Hiện tại thương mại điện tử đang phát triển mạnh tại Việt Nam và nhiều nước trên thế giới, chính vì thế đại đa số các doanh nghiệp điều mở rộng lĩnh vực hoạt động kinh doanh của mình vào thương mại điện tử, thậm chí nhiều doanh nghiệp còn chuyển hẳn sang lĩnh vực này để kinh doanh, doanh thu và lợi nhuận họ có được điều dựa vào thương mại điện tử

Để triển khai dự án SEO thành công, website của chúng ta cần phải được phân tích và lên kế hoạch ngay từ khi thực hiện, dựa vào kế hoạch để đưa dự án đi đúng hướng, đúng tiến độ là điều cần thiết nhất Trước tiên bạn hãy trả lời những câu hỏi đơn giản nhưng sẽ giúp bạn định hình được công việc mình phải làm như:

Website hướng tới đối tượng khách hàng nào, từ khóa chính cần phát triển

Trang 31

Đây được coi là mục tiêu của kế hoạch, vậy khi bắt đầu thì chúng ta phải xác định SEO phải là một phần trong chiến dịch marketing của doanh nghiệp Do đó, để tăng hiệu quả về SEO bạn phải biết và thống nhất được chiến dịch marketing, để SEO đi theo đúng mục tiêu mà bạn đặt ra Và mục tiêu của SEO không gì hơn là tìm kiếm khách hàng để nâng cao doanh số

Khi đã xác định được mục tiêu của SEO rồi thì bạn cần phải làm để hoàn thành mục tiêu đó Có nhiều phương thức để SEO website, cũng có nhiều trường phái để SEO nữa Tuy nhiên, nếu bạn muốn xây dựng thương hiệu cho dịch vụ SEO website của mình thì bạn nên chọn phương pháp an toàn nhất cho khách hàng

SEO website như thế nào thì hiệu quả?

Để chiến dịch SEO của bạn có hiệu quả, thì việc xác định được mục tiêu của chiến dịch SEO, xác định được công việc phải làm trong chiến dịch SEO đó là điều quan trọng nhất

- Bạn cần hiểu được thị hiếu và phân tích được tâm lý khác hàng sử dụng dịch

vụ trong dự án SEO bạn đang thực hiên

- SEO gắn liền với website, do đó bạn cần phải đánh giá lại website và xây dựng cho mình một website tốt, có thẩm mỹ cao, tiện ích cho người dùng Đừng bao

giờ “xây nhà trên cát”

- SEO cần cung cấp cho người dùng nội dung tốt về dịch vụ, sản phẩm dự án bạn thực hiện, do đó việc chuẩn bị cho mình kiến thức tốt về nghiệp vụ của khách hàng trước khi chuẩn bị thực hiện dự án là điều quan trọng để nâng cao chất lượng nội dung

- Để SEO bền vững và an toàn cho khách hàng, hãy tránh xa các công cụ spam,

và là công việc của chú ong chăm chỉ cần mẫn Đừng quên mục tiêu của Google là gì?

“cung cấp cho người dùng nhiều nội dung chất lượng nhất”

- Thường xuyên kiểm tra tiến độ dự án SEO của mình với chiến dịch marketing tổng thể của doanh nghiệp, hiệu quả doanh số từ việc triển khai dự án SEO để kịp thời điều chỉnh chiến thuật tiếp thị

Dưới đây là qui trình làm SEO

Trang 32

 Giai đoạn 1: SEO OnPage

 Bước 1: Thiết kế website

Lựa chọn tên miền website: lựa chọn tên miền ngắn gọn, dễ nhớ mang ý nghĩa thương hiệu hoặc các sản phẩm dịch vụ chủ đạo của công ty

Lên ý tưởng website cần tạo: các chức năng trong web, bố cục trình bày nội dung, màu sắc, hình ảnh của giao diện phù hợp với sản phẩm dịch vụ của công ty

Kham khảo vài website của các công ty khác để chọn lọc những ý tưởng hay Tìm hiểu một số công ty thiết kế web để lựa chọn nơi thiết kế phù hợp

Trong quá trình thiết kế website yêu cầu công ty thiết kế web phải thiết kế căn cứ vào các kỹ thuật SEO

 Bước 2: SEO bài viết

Cập nhật các bài viết mới thường xuyên, chú ý phải viết bài mới không được copy từ các bài khác từ trên mạng

Đặt tiêu đề bài viết ngắn gọn có chứa từ khóa cần SEO

Nội dung thẻ meta description ngắn gọn và chứa thông tin thu hút người xem Bài viết có ít nhất một hình ảnh và phải có thẻ alt mô tả ảnh kèm theo

Phân phối từ khóa cần SEO một cách hợp lý, tránh tình trạng nhồi nhét từ khóa vì

nó sẽ gây mất điểm

Bài viết phải chứa tối thiểu hai thẻ H1 và H2 trong các đoạn văn

 Gian đoạn 2: SEO OffPage

Công việc quan trọng trong SEO offpage là phải xây dựng cho website một hệ thống backlink chất lượng

Việc xây dựng backlink và vô cùng quan trọng trong SEO từ việc làm tăng thứ hạng pagerank của website đến tăng thứ hạng các từ khóa của website đó, có nhiều cách để có được backlink cụ thể như sau:

- Post bài lên các diễn đàn kèm theo chữ ký có chứa link tới website cần SEO

- Tham gia thảo luận tại các blog bằng các comment có chứa link

- Hoạt động trên các website cộng đồng như Facebook, Google plus, Twitter…

- Submit website, các bài viết trên website lên các trang bookmark uy tín

Trang 33

- Email marketing để lôi kéo khách truy cập đến website

- Nếu có kinh phí nên kết hợp cùng với chiến dịch Google Adwords nhằm tăng hiệu quả cho SEO

- Trao đổi các textlink với các website cùng lĩnh vực và uy tín

 Giai đoạn 3: Đánh giá và bổ sung

Phân tích kết quả đạt được sau khi thực hiện quá trình SEO onpage và SEO offpage, vị trí và thứ hạng của website đang ở mức nào? có những thiếu xót nào cần được bổ xung không? các đối thủ cạnh tranh hơn kém ta ở điểm nào? Để từ đó có những củng cố tích cực giúp website có vị trí tốt hơn

 Gian đoạn 4: Theo dõi thưỡng xuyên và duy trì

Theo dõi là một phần quan trọng trong kế hoạch SEO Nhiều người tin rằng chỉ cần phát triển và hiện thực kế hoạch SEO là xong Nhưng sự thật là SEO không phải chỉ là công việc tại một thời điểm Nó là quá trình liên tục yêu cầu kiểm tra, giám sát,

và thường xuyên xây dựng lại

Khi đã đạt được thứ hạng cao, nên tiếp tục duy trì vị trí đó bằng việc thực hiện SEO onpage và SEO offpage như ban đầu một cách đều đặn, tuy nhiên tránh lạm dụng các kỹ thuật SEO quá đà sẽ gây phải ứng ngược lại vì đã phạm vào các điều khoản của các công cụ tìm kiếm

3.2.2 Organic SEO

Organic SEO là phương pháp tối ưu hóa trang web mà không cần phải mất nhiều tiền để đạt thứ hạng cao trong trang kết quả tìm kiếm Tuy nhiên đó không phải là định nghĩa chính xác mà nó mang lại, một số chuyên gia SEO nghĩ rằng đó là sự tối ưu hóa nội dung của trang web để thu hút crawler và spider để đánh chỉ mục Một số khác lại nghĩ rằng đó là số liên kết chất lượng mà website có được Nhưng sự thật thì Organic SEO chỉ là sự kết hợp của những yếu tố như tag meta, tag title, tag meta description Organic SEO tối ưu hóa những yêu tố tự nhiên, xây dựng dựa trên nhiều thành phần để tạo ra website Một trong những điều hấp dẫn là các phương pháp của Organic SEO không hề tốn chi phí

Trang 34

Vậy điều cần quan tâm sẽ là: lợi ích của Organic SEO như thế nào, và làm sao để thực hiện được nó?

Lợi ích của Organic SEO

Số người nhấp chuột lên trang web nhiều hơn: Bất cứ ai cũng có thể trả tiền để có thể lên top đầu Điều này không chỉ xảy ra trong thế giới thực mà còn xảy ra trong thế giới ảo Nó xảy ra trong các cộng cụ tìm kiếm ngày nay, nhà quản trị có thể trả tiền cho các công cụ tìm kiếm như Google, Yahoo!, Bing để có được vị trí tốt nhất trên bảng xếp hạng Do đó người sử dụng thường không tin tưởng lắm vào các trang web trả tiền mới có thể xuất hiện trong trang đầu tiên của kết quả tìm kiếm (SERP - Search Engine Result Pages) – bởi đôi khi nội dung những trang web đó không hấp dẫn nên cần phải trả tiền để được tìm thấy Vì vậy họ thường chọn những trang web xuất hiện tự nhiên trên SERPs và nhấp chuột vào đó

Kết quả tìm kiếm được hiển thị lâu dài: Organic SEO giúp website xuất hiện trên trang kết quả trả về trong một thời gian dài, bởi trang web cung cấp cho công cụ tìm kiếm những thông tin chính xác, phù hợp với nội dung người sử dụng muốn tìm kiếm Phù hợp ở đây là cái đạt được không phải bằng thủ thuật hoặc phải trả tiền Điều đó có nghĩa chúng ta phải liên tục tạo ra những nội dung mà người sử dụng muốn tìm và đảm bảo những nội dung liên quan ở các liên kết đến trang web khác

Xây dựng được niềm tin: Liên tục bổ sung các yếu tố tự nhiên vào trang web mà không dùng thủ thuật nào, nó mạng lại niềm tin cho khách hàng bởi khách hàng biết rằng chúng ta đã và đang làm việc cực kỳ nghiêm túc Những gì ta quan tâm trình bày trên trang web thể hiện kiến thức chuyên sâu về vấn đề đó

Không tốn nhiều chi phí: Đôi khi những người chủ của trang web cùng cạnh tranh

ở những vị trí đáng mong muốn của SERPs với những từ khóa cụ thể Bình thường phải trả khá nhiều tiền cho những dịch vụ này của công cụ tìm kiếm Chẳng hạn như

“Google AdWords”, đấu giá từ khóa “web designing” thường vượt quá 35$ mỗi lần nhấp chuột Vì vậy cứ 10 người nhấp chuột vào các quảng cáo của Google AdWords thì các chủ trang web phải trả hơn 350$ Các dịch vụ trả tiền cho mỗi lần nhấp chuột

Trang 35

thường được gọi là PPC (Pay Per Click) phù hợp với những doanh nghiệp có ngân sách lớn muốn đưa trang web của mình đến khách hàng nhanh hơn

Vậy làm thế nào để có thể đạt được Organic SEO

Đạt được Organic SEO có thể tốn thời gian, điều cần làm là tập trung vào đúng những phần tử trên trang web Khi đó ta sẽ thấy được rằng Organic SEO là một phương pháp khá hiệu quả để đạt thứ hạng cao trên trang kết quả tìm kiếm

Tuy nhiên, chúng ta cần biết rằng Organic SEO thực sự mạng mẽ khi nó được kết hợp với một dịch vụ PPC hay một chương trình quảng cáo từ khóa Đó là cách tốt nhất

để đưa một trang web lên top đầu Bước đầu tiên để tối ưu trang web là đảm bảo các phần tử trên website được tối ưu Ở đây ta sẽ xem qua một số phần tử cơ bản

Hình 6 - Organic SEO (Nguồn: http://novaads.com/)

Nội dung website

Nội dung website là một trong những đề tài được tranh luận nhiều nhất trong SEO Giả sử nhà quản trị có một trang web bán hàng, khi đó anh ta sẽ cung cấp những thông tin cơ bản về hàng hóa, dịch vụ Những mô tả, đề tài, blog và cả những mẫu quảng cáo, tất cả đều được quét qua bởi spider và crawler Crawler và spider có khả

Trang 36

năng so sánh giữa nội dung và các thành phần khác của website Thứ hạng cao là khi nội dung phải hòa hợp với những thành phần khác

Một số công cụ tìm kiếm sẽ loại bỏ trang web, hoặc đưa nó vào thứ hạng thấp hơn nếu trang có nội dung không phải là duy nhất Vậy nên nếu mới xây dựng website thì đừng bao giờ đi copy nội dung của những trang web khác, cách tốt nhất là nên xây dựng một số trang có nội dung càng hấp dẫn càng tốt Từ khi blog ra đời, các crawler

và spider có thêm khả năng kiểm tra tính cập nhập thường xuyên của bài viết và tìm kiếm nội dung đó có duy nhất hay không Tuy rằng vậy nhưng cũng có một số trang web có nội dung tĩnh, cụ thể là một số trang web chuyên bán các sản phẩm có phần mô

tả ít khi thay đổi, những thành phần khác của website, như nhận xét về sản phẩm, hoặc cập nhập về số lượng sản phẩm cũng sẽ thỏa mãn yêu cầu về tính cập nhập của crawler Và một điều quan trọng trong nội dung là cần phải xem xét là từ khóa, lựa chọn từ khóa như thế nào, mật độ từ khóa ra sao cho phù hợp

Liên kết ngoài và liên kết trong

Một thành phần không kém quan trọng trong nội dung website là các liên kết Liên kết bên trong trang web, liên kết đi ra ngoài trang web đều được kiểm tra xem có phù hợp và đảm bảo những liên kết đều phải có liên quan đến nội dung, đừng đưa vào những liên kết không chắc chắn để rồi trang web có thứ hạng thấp

Nhưng liên kết bên trong trang web cũng rất quan trọng, cách điều hướng người dùng từ trang này sang trang khác đều đảm bảo nội dung có liên quan đến nhau hay cùng thuộc một đề tài thảo luận Tốt nhất nên xây dựng sitemap cho website để crawler

và spider chỉ mục trang Đồng thời nó sẽ giúp cho người sử dụng dễ dàng tiếp cận trực tiếp các trang web

Tính tương tác với người sử dụng

Chúng ta đang ở trong một kỷ nguyên tương tác Hầu hết mọi người đều muốn giao tiếp với những website mà họ ghé thăm Đó có thể là một cuộc thăm dò, lời bình luận, khả năng download file, một đoạn phim

Tính tương tác là thứ cần thiết để website đạt được thứ hạng cao trong SEO Có thể đạt được được thứ hạng cao mà không cần tương tác, nhưng chắc chắn website sẽ

Trang 37

thua những trang có sự tương tác cao với người dùng Và trang web sẽ dễ dàng đạt Organic SEO nhanh hơn bởi các hình thức tương tác sẽ giúp nhà quản trị có được thông tin của người sử dụng Khi đó, chúng ta sẽ dễ dàng hơn trong việc hấp dẫn họ đăng ký thông tin hay thuyết phục họ mua hàng.

3.2.3 SEO mũ đen và cách phòng tránh

SEO là sử dụng những phương pháp tối ưu hóa website dựa trên thuật toán của máy chủ tìm kiếm nhằm mục đích cải thiện thứ hạng của website trên công cụ tìm kiếm Theo phân tích của giới chuyên môn thì hiện nay có 2 phương pháp SEO đó là SEO mũ trắng (white-hat SEO) và SEO mũ đen (black-hat SEO) [7] Hai phương pháp này có những điểm mạnh và điểm yếu riêng

Hình 7 - Black-hat SEO (Nguồn: http://www.seo123.vn/)

Vậy SEO mũ đen là gì?

SEO mũ đen là tập hợp những phương pháp SEO giúp tăng thứ hạng của website một cách nhanh chóng bằng cách tập trung vào cơ chế hoạt động của bộ máy tìm kiếm, không mang lại giá trị cho người dùng và nó tiềm ẩn nhiều rủi ro

Các đặc điểm chính của SEO mũ đen

Vượt qua các quy tắc và luật lệ của công cụ tìm kiếm

Tạo nên các trải nghiệm người dùng không tốt bởi vì các kỹ thuật SEO mũ đen chỉ tập trung vào website

Trình bày nội dung theo hình thức thu hút sự chú ý của những con bọ tìm kiếm chứ không tập trung vào người dùng

Trang 38

Tác dụng của SEO mũ đen với website

Kỹ thuật SEO mũ đen sẽ giúp tăng thứ hạng của website trên các công cụ tìm kiếm trong thời gian ngắn nhưng nếu như website đó bị các công cụ tìm kiếm phát hiện

sử dụng các phương pháp này thì sẽ có nguy cơ website bị cấm xuất hiện trên công cụ tìm kiếm Do đó SEO mũ đen chỉ là một giải pháp tức thời chứ không phải lâu dài

Một số kỹ thuật SEO mũ đen nên tránh

Kỹ thuật che đậy:

Đây là kỹ thuật dựa trên việc nghiên cứu về phương thức hoạt động của những con bọ tìm kiếm Những người thực hiện phương pháp SEO mũ đen sẽ tìm hiểu về IP máy chủ tìm kiếm cũng như các con bọ tìm kiếm của máy chủ đó Sau đó họ sẽ thiết lập nên 2 trang web có nội dung khác nhau, một dành riêng cho người dùng và một dành riêng cho bọ tìm kiếm Trang web dành cho người dùng thiết kế thân thiệt hơn và

bố cục rõ ràng hơn, còn trang web dành cho bọ tìm kiếm sẽ được "nhồi" vào đó những

từ khóa mà họ muốn SEO Khi địa chỉ IP của người người dùng truy cập vào website

đó, họ chỉ thấy được nội dung của một trang tự nhiên và khi địa chỉ IP của con bọ tìm kiếm truy cập vào thì sẽ nhận được một trang web spam khác Điều này sẽ giúp cho website được tăng hạng nhanh hơn về mặt từ khóa đã SEO tuy nhiên nếu bị các máy chủ tìm kiếm phát hiện ra thì có thể sẽ bị phạt nặng hoặc không cho xuất hiện kết quả trên máy chủ đó

Spam - nhồi nhét từ khoá

"Nhồi nhét" danh sách những từ khóa vào nội dung và code trên cùng một trang

và làm cho người dùng không thể hiểu được Bạn đã bao giờ nhìn thấy một trang web

lặp đi lặp lại một từ nào đó trong một đoạn đầu tiên chưa? Đây là một ví dụ:"Bạn đang cần mua một chiếc máy tính bảng Công ty máy tính bảng của chúng tôi sẽ cung cấp cho bạn tất cả các loại máy tính bảng với giá rẻ nhất mà không một của hàng bán máy tính bảng nào có thể so sánh được Bạn còn đợi gì nữa mà không liên hệ với chúng tôi ngay hôm nay để sở hữu một chiếc máy tính bảng cấu hình cao mà giá cả lại rẻ Số lượng máy tính bảng có hạn, các bạn nhanh chân lên nhé."

Trang 39

Đây là spam và nhồi nhét từ khóa "máy tính bảng" nhưng nó chỉ là một thủ thuật SEO Việc nhồi nhét từ khóa có thể diễn ra trong mã lệnh, trong các thẻ meta, text ẩn, thẻ title, thẻ comment, v.v Nếu những từ khóa hoặc cụm từ khóa đó được lặp đi lặp lại quá nhiều lần, các công cụ tìm kiếm sẽ đặt một bộ lọc để giảm thứ hạng của trang web đó hoặc chỉ đơn giản hơn là cấm trang web đó Mật độ từ khóa có thể khác nhau, nhưng chỉ nên có khoảng 3%- 12% cho tất cả các text trên một trang là những từ khóa mục tiêu

Text ẩn - hide text

Đó là cách đặt những đoạn text hoặc liên kết có màu trùng với màu nền của trang web Khách và trang web sẽ không thấy được những text và link này nhưng các con bọ công cụ tìm kiếm có thể được nhìn thấy được Khi đó chúng được coi là bị ẩn Trước đây, người ta đặt text ẩn bằng cách thu nhỏ những text hoặc link cần SEO, đổi cho nó một màu nền và Font chữ trùng với màu nền của trang web Nhưng bây giờ, những kẻ spam đang sử dụng các bảng kiểu xếp chồng (CSS) để ẩn text hoặc sử dụng các thẻ được thiết lập để không hiển thị text trên trang đó Đó là lý do mà máy chủ tìm kiếm và đặc biệt là Google luôn phải đưa ra những sự thay đổi về thuật toán hàng năm để chóng lại những phương pháp này

Trang đơn lẻ - Doorway Page

Là các trang web được tạo ra cho spamdexing, cho spam chỉ mục của công cụ tìm kiếm bằng cách chèn kết quả cho cụm từ cụ thể với mục đích hướng người dùng vào một trang web khác Ngoài ra, doorway pages còn sử dụng một số kĩ thuật che đậy chuyển hướng khách truy cập đến một địa chỉ khác giống như khi bạn mở một trang web, bạn nhấp vào một link hay nhấp vào một button bạn sẽ thấy có nhiều tab hoặc nhiều cửa sổ được mở ra trên trình duyệt của bạn

Các trang chuyển hướng

Các trang gốc bị nhồi nhét quá nhiều từ khóa sẽ nhanh chóng chuyển hướng đến một trang thực sự Những trang này không nhất thiết phải chứa nội dung mà ai đó quan tâm Điều này cũng có nghĩa là chúng đạt thứ hạng cao trong các trang kết quả công cụ tìm kiếm Khi bạn click chuột vào một trong những trang này từ các kết quả đó, thì bạn

Trang 40

được chuyển hướng đến một trang khác Nói cách khác, trang web mà bạn click vào để xem không phải là trang web mà bạn thực sự có muốn đọc

Các trang web hoặc nội dung trùng lặp

Tạo ra những nội dung giống nhau giữa những trang web hoặc sự trùng lập về nội dung trên cùng một trang web Khi bạn copy bài viết từ một trang web khác cho vào website của mình và càng lúc với số lượng lớn bài viết như vậy bạn sẽ bị các máy chủ tìm kiếm đánh giá kém về chất lượng nội dung Máy chủ tìm kiếm sẽ so sánh độ uy tín của website bạn và website khác có cùng nội dung, khi website của bạn có độ y tín thấp hơn thì bạn sẽ bị máy chủ tìm kiếm đánh giá kém và có thể sẽ loại bạn ra khỏi kết quả tìm kiếm

Spam link

Nếu bạn đặt quá nhiều link trong cùng một trang web nhưng chỉ trong một thời gian ngắn thì bạn có thể sẽ bị cho là đang spam link cho trang web của mình và sẽ bị máy chủ tìm kiếm đánh giá kém chất lượng backlink cũng như website của bạn

Liên kết tới trang web không liên quan hoặc các trang có chất lượng kém

Các chiến dịch liên kết đều rất hữu ích nếu được thực hiện một cách chính xác Tuy nhiên, liên kết đến các trang web có chất lượng kém sẽ làm tụt thứ hạng trang web Nếu bạn không cẩn thận về những trang mà bạn đang liên kết, trang web có thể

dễ dàng biến mất khỏi kết quả tìm kiếm chỉ sau một đêm Nếu bạn đặt liên kết tại các trang web có chất lượng nội dung đang bị máy chủ tìm kiếm đánh giá là kém thì trang web của bạn có thể cũng sẽ chịu chung số phận với các trang web đó

Hạn chế liên kết tới những trang web sau:

- Các trang web có chứa nhiều liên kết hoàn toàn miễn phí

- Các trang web dành cho người lớn

- Các trang web cờ bạc

Bất kỳ một người SEO nào cũng có thể sử dụng những kỹ thuật SEO mũ đen này

để tăng thứ hạng cho website của họ Lúc đầu, điều này có thể sẽ suôn sẻ nhưng về lâu dài khi các máy chủ tìm kiếm phát hiện ra được hoặc các đối thủ khác trình báo về hoạt động này thì bạn sẽ phải trả giá hoặc phải làm lại từ đầu Vì thế cho nên tốt nhất, hãy

Ngày đăng: 27/11/2014, 09:43

Nguồn tham khảo

Tài liệu tham khảo Loại Chi tiết
[1] Nguyễn An Huy và Nguyễn Tiến Nghĩa, (2012), “Xây dựng công cụ hỗ trợ tối ưu website với SEO (Search Engine Optimization)”, Trường Đại Học Bách Khoa Tp.Hồ Chí Minh Sách, tạp chí
Tiêu đề: Xây dựng công cụ hỗ trợ tối ưu website với SEO (Search Engine Optimization)
Tác giả: Nguyễn An Huy và Nguyễn Tiến Nghĩa
Năm: 2012
[2] Microlink Co., Ltd – Kenh Cong Co., Ltd, tapchiseo.com, (tháng 1 năm 2011), “SEO Magazine” Sách, tạp chí
Tiêu đề: SEO Magazine
[3] Đỗ Văn Phương, “Sổ tay Google Analytics 1.0”, tháng 7 năm 2011 &lt;http://www.dovanphuong.com/Google%20Analytics.pdf&gt;Tài liệu tiếng Anh Sách, tạp chí
Tiêu đề: Sổ tay Google Analytics 1.0
[4] Econsultancy.com Ltd, (2011) , “SEO Best Practice Guide” Sách, tạp chí
Tiêu đề: SEO Best Practice Guide
[5] George S. Spais, (2010), “Search Engine Optimization (SEO) as a dynamic online promotion technique” Hy Lạp Sách, tạp chí
Tiêu đề: Search Engine Optimization (SEO) as a dynamic online promotion technique
Tác giả: George S. Spais
Năm: 2010
[6] Goup Google Inc (2010), “Search Engine Optimazation Starter Guide” Sách, tạp chí
Tiêu đề: Search Engine Optimazation Starter Guide
Tác giả: Goup Google Inc
Năm: 2010
[7] Jaimie Sirovich, Cristian Darie (2007), “Professional Search Engine Optimization with PHP” , Wiley Publishing Inc Sách, tạp chí
Tiêu đề: Professional Search Engine Optimization with PHP
Tác giả: Jaimie Sirovich, Cristian Darie
Năm: 2007
[8] Jerri L.Ledford, (2008), “SEO – Search Engine Optimization Bible”, Wiley Publishing Inc Sách, tạp chí
Tiêu đề: SEO – Search Engine Optimization Bible
Tác giả: Jerri L.Ledford
Năm: 2008
[9] Joeran Beel, Bela Gipp, and Erik Wilde, (2010), “Academic Search Engine Optimization (ASEO)”, University of Toronto, tr 1-7 Sách, tạp chí
Tiêu đề: Academic Search Engine Optimization (ASEO)
Tác giả: Joeran Beel, Bela Gipp, and Erik Wilde
Năm: 2010
[10] Rand Fishkin - Seomoz.org, (tháng 8 năm 2010 ), “Standard-SEO-SEOMoz” Sách, tạp chí
Tiêu đề: Standard-SEO-SEOMoz
[11] Rakesh Kumar and Shiva Saini, (2011), “A Study on SEO Monitoring System Based on Corporate Website Development”, International Journal of Computer Science, Engineering and Information Technology (IJCSEIT), tr. 1-8 Sách, tạp chí
Tiêu đề: A Study on SEO Monitoring System Based on Corporate Website Development
Tác giả: Rakesh Kumar and Shiva Saini
Năm: 2011
[12] Analytics for any Website, Alexa Internet Inc, 2013 &lt;www.alexa.com&gt Khác
[13] CSS Validation Service, W3C, 2009 &lt;http://www.css-validator.org&gt Khác
[14] Do a lookup against a domains WHOIS information, Who.is, 2012 &lt;http://who.is/whois/&gt Khác
[15] Document Object Model, the php group, 2013 &lt;http://php.net/manual/en/book.dom.php&gt Khác
[16] Duyệt web an toàn, Google, 2012 &lt;https://www.google.com.vn/safebrowsing/diagnostic?site=domain&gt Khác
[17] Estimate the value of any website or blog, Worth Of Web, 2013 &lt;http://www.worthofweb.com/calculator/&gt Khác
[18] Hoạt động của cỗ máy tìm kiếm, VietSEO, 2008 &lt;http://www.vietseo.net/articles/search-engine/hoat-dong-may-tim-kiem/&gt Khác
[19] Hướng Dẫn Sử Dụng Google Webmaster Tool, T.V.O ASIAN &lt;http://tvo.asia/news/tvo-huong-dan-su-dung-google-webmaster-tool &gt Khác
[20] Internet Users in the World Distribution, Miniwatts Marketing Group, June 30 2012 &lt;http://www.internetworldstats.com/stats.htm&gt Khác

HÌNH ẢNH LIÊN QUAN

Hình 1 - Giao diện nhập từ khóa để tìm kiếm  (Nguồn: google.com.vn) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 1 Giao diện nhập từ khóa để tìm kiếm (Nguồn: google.com.vn) (Trang 20)
Hình 2 - Cơ chế hoạt động của Google Spider  (Nguồn: http://tutorial.vietmoz.net)  Cơ chế hoạt động của Google Spider - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 2 Cơ chế hoạt động của Google Spider (Nguồn: http://tutorial.vietmoz.net) Cơ chế hoạt động của Google Spider (Trang 24)
Hình 3 - File robots.txt  (Nguồn: tác giả) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 3 File robots.txt (Nguồn: tác giả) (Trang 27)
Hình 5 - File sitemap.xml  (Nguồn: tác giả) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 5 File sitemap.xml (Nguồn: tác giả) (Trang 29)
Bảng 1 - Giá trị đặc biệt trong sitemap.xml  (Nguồn: tác giả) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Bảng 1 Giá trị đặc biệt trong sitemap.xml (Nguồn: tác giả) (Trang 29)
Hình 6 - Organic SEO  (Nguồn: http://novaads.com/) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 6 Organic SEO (Nguồn: http://novaads.com/) (Trang 35)
Hình 7 - Black-hat SEO  (Nguồn: http://www.seo123.vn/) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 7 Black-hat SEO (Nguồn: http://www.seo123.vn/) (Trang 37)
Hình 8 - Tên miền  (Nguồn: http://tocdoviet.vn/) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 8 Tên miền (Nguồn: http://tocdoviet.vn/) (Trang 43)
Hình 9 - Từ khóa - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 9 Từ khóa (Trang 46)
Bảng 3 - Xác định độ cạnh tranh  (Nguồn: tác giả) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Bảng 3 Xác định độ cạnh tranh (Nguồn: tác giả) (Trang 48)
Hình 10 - Thẻ header - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 10 Thẻ header (Trang 54)
Hình 11 - Google PageRank  (Nguồn: http://seotop.cto.vn/)  Google mô tả về PageRank như sau: - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 11 Google PageRank (Nguồn: http://seotop.cto.vn/) Google mô tả về PageRank như sau: (Trang 61)
Hình 12 - Hiện thị Google Adword trên website  (Nguồn: tác giả) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 12 Hiện thị Google Adword trên website (Nguồn: tác giả) (Trang 67)
Hình 14 - Xác nhận chủ quyền website  (Nguồn: tác giả) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 14 Xác nhận chủ quyền website (Nguồn: tác giả) (Trang 68)
Hình 13 - Thêm URL vào Google webmaster tools  (Nguồn: tác giả) - luận văn thạc sỹ xây dựng công cụ hỗ trợ tối ưu hóa website cho các công cụ tìm kiếm
Hình 13 Thêm URL vào Google webmaster tools (Nguồn: tác giả) (Trang 68)

TỪ KHÓA LIÊN QUAN

TRÍCH ĐOẠN

TÀI LIỆU CÙNG NGƯỜI DÙNG

TÀI LIỆU LIÊN QUAN

🧩 Sản phẩm bạn có thể quan tâm

w