1. Hiện tại có một số member mạo danh BQT để giao dịch trên diễn đàn và đã LỪA ĐẢO khá nhiều tại chuyên mục Adwords... Mọi người cảnh giác và đọc bài: Giới thiệu giao dịch đảm bảo bởi @Admin

Làm thế nào để sử dụng BigQuery để mở rộng SEO?

Thảo luận trong 'Thảo luận Seo' bắt đầu bởi thegioiseo, 17/6/16.

Lượt xem: 4,078
  1. thegioiseo

    thegioiseo Điều Hành Viên

    Gia nhập:
    22/5/11
    Bài viết:
    1,206
    Đã được thích:
    2,688
    (Thegioiseo) - Làm thế nào để sử dụng BigQuery để mở rộng SEO? Bài viết này sẽ giúp bạn:

    - Làm việc với một lượng dữ liệu lớn. Ví dụ: audit liên kết internal, backlink, phân tích file log
    - Thực hiện các truy vấn phức tạp trên dữ liệu một cách nhanh chóng
    - Cải thiện cách bạn làm việc với các vấn đề bằng cách buộc bạn phải xác định những gì bạn đang tìm kiếm thay vì lang thang không mục đích với dữ liệu.

    Chúng ta sẽ làm gì khi các công cụ lỗi?

    Bạn sẽ làm gì khi excel lỗi? Bạn đang cố gắng để lọc một tập dữ liệu lớn với một hàm VLOOKUP và excel đã nằm xuống và chết. Excel là một công cụ tuyệt vời nhưng điều đó không có nghĩa là chúng ta sẽ sử dụng nó cho tất cả mọi thứ.

    Bạn nên sử dụng những gì?

    Câu trả lời truyền thống là SQL. Giao diện miễn phí để làm việc với nó thường rất trực quan và không trực quan đối với những người tìm kiếm để bắt đầu nó một cách nhanh chóng.

    BigQuery là gì?

    Dưới đây là những lời giới thiệu từ Google

    "Đó là một kho dữ liệu nhanh chóng, tiết kiệm và quản lý đầy đủ để phân tích dữ liệu với quy mô lớn". Nếu chúng ta làm nó cụ thể hơn, chúng ta sẽ nhận được:

    Đó là một cơ sở dữ liệu SQL mà bạn có thể dựa vào và chạy các truy vấn trên đó. Nó sẽ làm việc với bất kể kích thước dữ liệu của bạn.

    Tại sao sử dụng BigQuery để phân tích dữ liệu?

    Thật sự là có hai lý do. Việc đầu tiên là: tại sao bạn nên sử dụng SQL để phân tích các tập dữ liệu lớn của bạn?

    1. Nó được thiết kế cho các truy vấn khó hiểu phức tạp mà Excel không thể giải quyết được.

    2. Nhiều tổ chức lưu trữ dữ liệu của họ trong cơ sở dữ liệu SQL. Được làm việc trong SQL là một kỹ năng nghề nghiệp có giá trị.

    3. Nó rất hợp lý, mặc dù bạn sẽ cần phải tìm hiểu một số cú pháp; việc viết các truy vấn có ý nghĩa logic trực quan.

    4. Nếu bạn chuẩn hóa tên bạn sử dụng, bạn có thể tái sử dụng các truy vấn phức tạp tương tự trên nhiều tập dữ liệu, cho phép bạn tạo để trả lời một câu hỏi phức tạp và tái sử dụng nó một cách dễ dàng.

    5. Cá nhân tôi thấy nó rất tốt để làm việc. Bạn có thể biết những câu hỏi mà bạn muốn hỏi để nhận được câu trả lời.

    Thứ hai, tại sao sử dụng BQ để phân tích các tập dữ liệu lớn?

    1. Chi phí của nó khá là rẻ, trừ khi bạn đang làm một cái gì đó thực sự rất lớn.
    2. Các thiết lập có thể được thực hiện mà không cần phải có kỹ năng lập trình
    3. Giao diện cực kỳ đơn giản để sử dụng

    Khi nào bạn nên sử dụng BigQuery để phân tích dữ liệu?

    Như chúng tôi đã đề cập ở trên, trường hợp để sử dụng đó là khi Excel bị lỗi hoặc trở nên chậm chạp hoặc bạn cần phải liên tục trả lời một câu hỏi phức tạp trên các tập dữ liệu khác nhau và viết một truy vấn duy nhất là nhanh hơn nhiều so với việc thao tác trên tập dữ liệu Excel.

    Một vài ví dụ:

    - Làm việc với tập dữ liệu trên 1.048.576 hàng, ví dụ:

    + Phân tích backlink trên các trang web lớn

    + Phân tích log

    + Audit các liên kết internal

    - Làm việc với nhiều tập dữ liệu mà Excel có thể gặp bế tắc

    Ví dụ:

    + Kết hợp dữ liệu thương mại điện tử internal với dữ liệu thu thập của một trang web lớn để trả lời những câu hỏi như "Có bao nhiêu người trong lịch sử thành công với các các sản phẩm của chúng tôi?"

    + Trộn dữ liệu GA với dữ liệu thu thập, nơi bạn cần để tổng hợp

    Hy vọng rằng bây giờ bạn đã xem xét lựa chọn khi Excel của bạn gặp vấn đề, vì vậy chúng ta hãy cùng nhau tìm hiểu nó.

    1. Đặt câu hỏi thông minh

    Bạn không thể chỉ thao tác và chơi xung quanh với các dữ liệu trong một bảng SQL như bạn có thể làm trong Excel. Vì vậy, hãy định nghĩa một vài câu hỏi chúng tôi có thể trả lời trong bài viết này:

    - Thẻ title rộng hơn 512px trong dữ liệu thu thập của chúng tôi được ưu tiên theo số lượng khách truy cập tự nhiên?

    - Có bao nhiêu session được bắt đầu trên các trang đích non-canonical?

    - Những phần trang web hoàn thành mục tiêu của chúng tôi đến từ đâu?

    Tôi đã thu thập trang web Distilled.net với Screaming Frog (SF) và sau đó tạo ra một số dữ liệu giả Google Analytics (GA) cùng với nó để trả lời những câu hỏi này. Tập dữ liệu trong trường hợp này là không lớn và có thể được thực hiện trong Excel nhưng nó có thể làm tốt hơn để chúng tôi cảm thấy thoải mái.

    2. Nhận được một tài khoản BigQuery

    Trước tiên, bạn sẽ cần một tài khoản Google.

    Sau đó, bạn đăng ký dùng thử BQ miễn phí. Bạn không cần phải sử dụng bất kỳ các phần khác của phần mềm trong Google Cloud Platform, mặc dù sau này chúng tôi sẽ sử dụng Google Cloud Storage (GCS) trong hướng dẫn này.

    (GCS là giống như một Dropbox/Google Drive được sử dụng trong các doanh nghiệp). Khi bạn đã hoàn tất việc đăng ký, bạn hãy nhìn vào một Dashboard.

    Lam the nao de su dung BigQuery de mo rong SEO

    Tôi đã làm mờ đi ID để bảo mật.

    Từ đây chúng ta cần phải truy cập BigQuery. Điều này có thể được thực hiện từ menu trên cùng bên trái. Tại đây bạn cũng có thể tìm thấy dưới “Storage" mà chúng tôi đã đề cập trước đó.

    3. Bảng điều khiển BQ

    slide

    Đây là giao diện chính BQ. Bạn hãy nhìn trên màn hình:

    - Đây là những tùy chọn menu chính

    + Trình soạn thảo

    + Query History là một bản ghi của các truy vấn gần đây bạn đã thực hiện.

    + Job History là một bản ghi của tất cả các hành động gần đây bạn đã thực hiện với các dữ liệu. Bạn phải tải và giải nén nó.

    - Đây là nơi mà tất cả các tập dữ liệu được lưu trữ. Mỗi tập dữ liệu là một dự án. Mỗi tập dữ liệu chứa các bảng cá nhân có chứa dữ liệu.

    - Đây là nơi bạn viết câu truy vấn

    - Đây là Job History và Query History được hiển thị.

    4. Làm thế nào để bạn tải dữ liệu vào BQ?

    Đầu tiên chúng ta tạo ra một tập dữ liệu mới. Chúng tôi sẽ gọi chúng là distilled_test.

    Chúng ta click vào mũi tên nhỏ ở phía trên và nhập dữ liệu chi tiết của chúng tôi.

    - ID: distilled_test
    - Data location: EU
    - Data expiration: bạn có thể thiết lập Never nếu bạn nghĩ rằng bạn quên xóa nó.

    Sau đó chúng tôi di chuột qua các số liệu và nhấp vào biểu tượng dấu cộng. Chúng tôi sẽ nhận được tùy chọn để tạo ra một bảng và tải dữ liệu của chúng tôi.
    Lam the nao de su dung BigQuery de mo rong SEO 3

    Dưới đây là form, bạn hãy điền đầy đủ.

    Việc tải dữ liệu vào cơ sở dữ liệu SQL khác so với việc tải dữ liệu vào Excel - quy tắc nghiêm ngặt hơn. 4 điểm chính là:

    4.1. Bạn phải có cùng số cột cho mỗi hàng. Lấy ví dụ như sau:

    - Apple, potato, chocolate
    - Apple, donut
    - Apple, potato, chocolate
    - Apple, donut

    Cột đầu tiên là hợp lệ, cột thứ 2 không làm việc. Rất may là, hầu hết các export của chúng tôi giống như GA và SF là mặc định và bạn có thể kích hoạt tùy chọn “Allow jagged rows” để bỏ qua điều này.

    4.2. Theo mặc định, bạn không thể tải dữ liệu với các dòng mới bên trong một trường. Đây không phải là vấn đề lớn nhưng bạn có thể chạy nó với crawls.

    Thật ra, chúng tôi sẽ chạy với tập dữ liệu crawl Distilled của chúng tôi, vì chúng tôi có một số trang khá kinh khủng. Rất may, nó rất dễ dàng để giải quyết; chúng ta làm điều này bằng cách đánh dấu vào ô "Allow Quoted Newlines".

    4.3. Bạn phải định nghĩa các kiểu dữ liệu cho mỗi cột. Điều này sẽ giới hạn những gì bạn có thể làm; Ví dụ, bạn không thể thực hiện bổ sung vào chuỗi. Bạn có thể làm dòng này bởi dòng trong một form hoặc chỉ trong một text box. Tôi đã cung cấp hai lược đồ dưới đây cho Google Landing Page Report & Screaming Frog, bạn có thể copy và paste vào text box. (SF có thể cần thay đổi nhỏ nếu bạn sử dụng nó cho các tập dữ liệu SF khác, như việc export SF trả về một con số động của các cột tùy thuộc vào những gì nó tìm thấy).

    4.4. Bạn phải nói với BigQuery về số lượng lỗi bạn muốn cho phép trong dữ liệu - nếu không nó sẽ fail tại một lỗi duy nhất. Nếu tôi tải lên các tập tin cùng một lúc, tôi giả định rằng nó không có lỗi. Nếu tôi tự động hóa một cái gì đó lớn, tôi thường cho phép một số lỗi và theo dõi chúng để nó không bị hỏng khi tôi không xem.

    Cả 2 tập dữ liệu chúng tôi cung cấp bạn chỉ cần tải thẳng vào Schema như bên dưới:

    SF Standard Export Schema:
    Mã:
    address:STRING,content:STRING,status_code:INTEGER,status:STRING,title1:STRING,title_1_length:INTEGER,title_1_pixel:INTEGER,meta_description:STRING,meta_description_length:INTEGER,meta_description_pixel:INTEGER,meta_keyword:STRING,meta_keyword_length:INTEGER,h1_1:STRING,h1_1_length:INTEGER,h1_2:STRING,h1_2_length:INTEGER,h2_1:STRING,h2_1_length:INTEGER,h2_2:STRING,h2_2_length:INTEGER,meta_robots:STRING,meta_refresh:STRING,canonical:STRING,size:INTEGER,word_count:INTEGER,level:INTEGER,inlinks:INTEGER,outlinks:INTEGER,external_outlinks:INTEGER,hash:STRING,response:FLOAT,last_mod:STRING,redirect_url:STRING
    
    GA Landing Pages Export Schema:
    Mã:
    landing_page:STRING,sessions:INTEGER,percent_new_sessions:FLOAT,new_users:INTEGER,bounce_rate:FLOAT,pages_per_sessions:FLOAT,avg_session_length:FLOAT,transactions:INTEGER,revenue:FLOAT,ecomm_conversion_rate:FLOAT
    
    5. Thêm một vài trường bổ sung

    Nó rất là hữu ích để làm một số xử lý bổ sung vào dữ liệu SF của chúng tôi. Cụ thể, chúng tôi muốn tách riêng các thông số URL của chúng tôi và giải nén mỗi thư mục vì vậy chúng tôi có thể làm việc với nó một cách dễ dàng.

    Chúng tôi có thể thực hiện điều đó bằng cách chạy các truy vấn sau đây và lưu lại với một bảng mới.
    Mã:
    SELECT
    *,
    SUBSTR(path_and_host,INSTR(address,'.net')+4) as path,
    NTH(3, SPLIT(path_and_host, '/')) page_path_1,
    NTH(4, SPLIT(path_and_host, '/')) page_path_2,
    NTH(5, SPLIT(path_and_host, '/')) page_path_3,
    NTH(6, SPLIT(path_and_host, '/')) page_path_4
    FROM (
    SELECT
    *,
    NTH(2,SPLIT(address, '?')) as query,
    NTH(1,SPLIT(address, '?')) as path_and_host,
    FROM
    [distilled_test.crawl_data]
    )
    Lam the nao de su dung BigQuery de mo rong SEO 4
    Chúng ta có thể thấy ở đây tôi đã chạy các truy vấn, nó đã trả ra các trường mới và tôi lưu nó. Sau đó, chúng tôi xóa bảng cũ và tiếp tục đi. Nhìn trên bảng của chúng tôi, bây giờ chúng ta cần phải có:
    Lam the nao de su dung BigQuery de mo rong SEO 5
    6. Chạy các truy vấn với BQ

    Tôi sẽ giải thích các truy vấn này. Ngoài ra còn có một số các khóa học miễn phí về SQL.

    Câu hỏi 1: Những thẻ title rộng hơn 512px trong dữ liệu thu thập của chúng tôi được ưu tiên bởi số lượng khách truy cập tự nhiên?

    Đầu tiên, chúng tôi muốn đề cập đến thẻ title với các trang từ các số liệu SF:
    Mã:
    SELECT
    address, title1
    FROM
    [distilled_test.crawl_data_final]
    Sau đó, chúng tôi muốn lọc nó cho tất cả các title với độ rộng lớn hơn 512px.
    Mã:
    SELECT
    address, title1
    FROM
    [distilled_test.crawl_data_final]
    WHERE
    title_1_pixel > 512
    Bây giờ nó trở nên phức tạp hơn một chút. Ưu tiên số lần truy cập tự nhiên, chúng ta cần phải mang theo ga_data của chúng tôi. Điều này có nghĩa là chúng ta cần phải nối hai bảng.
    Mã:
    SELECT
    address, title1, sessions
    FROM (
    SELECT
    address,
    path,
    title1
    FROM
    [distilled_test.crawl_data_final]
    WHERE
    title_1_pixel > 512 ) AS crawl_query
    LEFT JOIN (
    SELECT
    landing_page,
    sessions
    FROM
    [distilled_test.ga_data] ) AS ga_data
    ON
    crawl_query.path = ga_data.landing_page
    ORDER BY
    sessions desc
    Hãy tìm các dấu ngoặc và các truy vấn được đánh tên. Chúng tôi đã chạy 2 truy vấn riêng biệt:

    Đầu tiên, chúng ta có các truy vấn của chúng ta để lọc tất cả các title trên 512px:
    Mã:
    ( SELECT
    address,
    path,
    title1
    FROM
    [distilled_test.crawl_data_final]
    WHERE
    title_1_pixel > 512 ) AS crawl_query
    Sau đó, chúng tôi có một truy vấn thứ hai trả về session cho mỗi trang đích:
    Mã:
    SELECT
    landing_page,
    sessions
    FROM
    [distilled_test.ga_data] ) AS ga_data
    Sau đó, chúng tôi nối hai bảng đó với nhau.

    Có rất nhiều loại JOINs khác nhau trong SQL. Lời giải thích mà tôi thấy tốt nhất là ở bên dưới. Và câu trả lời của chúng tôi, tôi đã liệt kê dưới đây:
    Câu hỏi 2: Có bao nhiêu session bắt đầu trên các trang đích non-canonical?

    Đầu tiên chúng ta cần phải nhận được tổng số session trên trang:
    Mã:
    SELECT
    landing_page,
    sessions
    FROM
    [distilled_test.ga_data]) AS ga_data
    Sau đó, chúng ta cần tránh một cái bẫy. Đó chính là những vấn đề có thể dễ dàng bị bỏ qua nếu bạn đã làm điều này trong Excel nhưng SQL sẽ buộc bạn phải suy nghĩ.

    Tìm URL canonical chuẩn là rất khó. Nếu chúng ta chọn tất cả các URL non-canonical, hãy loại bỏ những URL đó và nối vào, sau đó chúng tôi giả định tất cả mọi thứ khác trong GA là URL canonical và giả sử tất cả mọi thứ khác là non-canonical.

    Vì vậy, hãy chọn tất cả các URL canonical.
    Mã:
    SELECT
    address
    FROM
    [distilled_test.crawl_data_final]
    WHERE
    address = canonical
    Và sau đó JOIN hai bảng và SELECT nơi mà chúng không có URL canonical phù hợp và ORDER BY theo session và ưu tiên chúng.
    Mã:
    SELECT
    landing_page,
    sessions
    FROM (
    SELECT
    landing_page,
    sessions
    FROM
    [distilled_test.ga_data]) AS ga_data
    LEFT JOIN (
    SELECT
    path,
    FROM
    [distilled_test.crawl_data_final]
    WHERE
    address = canonical ) AS crawl_data
    ON
    ga_data.landing_page = crawl_data.path
    WHERE
    crawl_data.path IS NULL
    ORDER BY
    sessions DESC
    Tất cả đã hoàn thành. Dưới đây là top 5 URL:

    - /resources/videos/sl-bos-16-marcustober
    - /company/people/tom-critchlow.html/
    - /resources/videos/sl-sandiego-15-scottedwards
    - /resources/videos/community
    - /tone-of-voice//

    Câu hỏi 3: Những phần trang web hoàn thành mục tiêu của chúng tôi đến từ đâu?

    Chúng ta có thể làm điều này bằng cách nối hai bảng như chúng ta đã làm trong hai truy vấn trước đó, hoặc chúng ta có thể xử lý dữ liệu như chúng ta đã làm với dữ liệu SF và truy vấn nó trực tiếp. Điều đó thực sự sẽ dễ dàng hơn và tránh được một số cạm bẫy khác có thể.
    Mã:
    SELECT
    *,
    NTH(1, SPLIT(path, '/')) page_path_1,
    NTH(2, SPLIT(path, '/')) page_path_2,
    NTH(3, SPLIT(path, '/')) page_path_3,
    NTH(4, SPLIT(path, '/')) page_path_4
    FROM (
    SELECT
    *,
    NTH(1,SPLIT(landing_page, '?')) as path,
    NTH(2,SPLIT(landing_page, '?')) as query
    FROM
    [distilled_test.ga_data]
    )
    Chúng tôi đã có một truy vấn nằm bên trong một truy vấn khác.
    Mã:
    SELECT
    *,
    NTH(1,SPLIT(landing_page, '?')) as path,
    NTH(2,SPLIT(landing_page, '?')) as query
    FROM
    [distilled_test.ga_data]
    Câu lệnh thứ 2:
    Mã:
    SELECT
    *,
    NTH(1, SPLIT(path, '/')) page_path_1,
    NTH(2, SPLIT(path, '/')) page_path_2,
    NTH(3, SPLIT(path, '/')) page_path_3,
    NTH(4, SPLIT(path, '/')) page_path_4
    FROM (
    Query_1
    )
    Khi chúng tôi có bảng mới, chúng tôi chỉ có thể hỏi một câu hỏi rất cơ bản để có được câu trả lời:
    Mã:
    SELECT
    page_path_1, SUM(transactions) as total_transactions
    FROM
    [distilled_test.ga_data_final]
    GROUP BY
    page_path_1
    ORDER BY
    total_transactions DESC
    
    Điều mới mẻ duy nhất ở đây là GROUP BY. Chúng tôi muốn tổng của tất cả các giao dịch, vì vậy chúng tôi thêm một trường SUM transactions. Chúng tôi làm điều đó với GROUP BY.

    Xin chúc mừng, bạn đã kết thúc! Chúng ta không chỉ nhận được một số câu trả lời hữu ích, nếu bây giờ bạn được hỏi những câu hỏi tương tự trên một dự án khác hoặc một tập tin được cập nhật, bạn chỉ cần copy và paste cùng một truy vấn và nhận được kết quả mới. Chúng tôi đã thực hiện các công việc khó khăn một lần và sẽ không bao giờ phải làm điều đó một lần nữa.

    Một điều cuối cùng về việc export kết quả

    Muốn export kết quả thì bạn sẽ phải làm như nào? Bạn có thể tải về các kết quả từ truy vấn nhỏ trực tiếp như CSV nhưng để nhận nhiều kết quả hơn, bạn sẽ cần phải lưu chúng như một bảng và sau đó export bảng vào GCS và tải về.

    Ở đây tôi đang tải các kết quả vào một test_distilled trong GCS.

    Lam the nao de su dung BigQuery de mo rong SEO 6

    Đó là những cách mà tôi đã làm. Bạn có cách nào khác tôi, vui lòng comment bên dưới bài viết này. Lưu ý rằng đây là một bài viết nghiên cứu chuyên sâu về Seo nên cần bạn có một kiến thức Seo tốt để hiểu được điều mà tôi muốn nói trong bài viết này.

    Ghi nguồn www.thegioiseo.com khi đăng tải lại bài viết này.
    Bài viết có sử dụng và tham khảo nội dung từ Moz, Distilled.
    Link: Làm thế nào để sử dụng BigQuery để mở rộng SEO?

    Last edited by a moderator: 17/6/16
    haoprotaizalovn thích bài này.
  2. taizalovn

    taizalovn Top 9

    Gia nhập:
    8/12/15
    Bài viết:
    326
    Đã được thích:
    12
    Web:
    Phức tạp quá. Pro seo mới hiểu và làm được thôi
  3. thienlyma90

    thienlyma90 Top 7

    Gia nhập:
    7/6/13
    Bài viết:
    1,329
    Đã được thích:
    86
    Nơi ở:
    HN
    Web:
    Nếu mình chỉ làm trên blogger thì liệu có cần mở rộng bằng bogquery như trên không bạn?
  4. haopro

    haopro Top 8

    Gia nhập:
    2/8/13
    Bài viết:
    378
    Đã được thích:
    27
    Web:
    quá phức tạp, các bạn seo nào rành code là 1 lội thế vì mình đọc những dòng đầu còn hiểu qua tới khúc Bảng điều khiển BQ là potay rồi .
  5. Tiến Nava

    Tiến Nava Top 9

    Gia nhập:
    5/10/12
    Bài viết:
    69
    Đã được thích:
    12
    Nơi ở:
    #saigon
    Web:
    Lợi thế cho những SEOer nào thuần thục php và csdl đây. Cảm ơn a @thegioiseo đã dịch bài viết này.
  6. honglinh68

    honglinh68 Top 9

    Gia nhập:
    28/8/15
    Bài viết:
    121
    Đã được thích:
    5
    Google có nhiều cái hay quá. Nhưng mà không hiểu về mấy cái này thì sao mà làm theo được :(
  7. vthao93hp

    vthao93hp Top 9

    Gia nhập:
    5/11/15
    Bài viết:
    85
    Đã được thích:
    7
    Cái này chắc là phản để dành cho các bác pro am hiểu cả code + Seo và chỉ chơi với các dự án cực lớn.
  8. thienbao

    thienbao Top 9

    Gia nhập:
    24/8/15
    Bài viết:
    444
    Đã được thích:
    14
    thật sự đọc chả hiểu, cái này những seo pro với lại coding may ra hiểu thôi :(
  9. nguyenhuutinh1992

    nguyenhuutinh1992 Top 7

    Gia nhập:
    26/9/13
    Bài viết:
    1,778
    Đã được thích:
    165
    Web:
    Kiến thức này lần đầu tiên mình nghe thấy, những điều này chỉ dùng cho những site có lượng truy cập lớn nhứ trang bào vnexpress... chứ những site nhỏ lượng truy cập và dữ liệu không có bao nhiêu hết.
  10. ThanhY

    ThanhY Top 9

    Gia nhập:
    15/3/16
    Bài viết:
    77
    Đã được thích:
    2
    Nơi ở:
    Hà Nội
    Web:
    Nói thật thì em vẫn chưa hiểu công cụ này cho lắm, Công cụ này chắc chủ yếu dành cho chuyên gia chứ không phải newbie
  11. fifafantasi

    fifafantasi Top 9

    Gia nhập:
    26/1/16
    Bài viết:
    272
    Đã được thích:
    3
    Cái này liên quan đến code rồi chứ dân SEO thì chắc là chịu rồi đấy
  12. Huệ Trần

    Huệ Trần Top 10

    Gia nhập:
    16/5/16
    Bài viết:
    27
    Đã được thích:
    1
    Web:
    E chưa từng sử dụng công cụ này mà thấy nó phức tạp quá ạ

Nội quy khi thảo luận:

Dù bạn có cố tình spam bằng cách nào khi BQT diễn đàn phát hiện sẽ lập tức banned nick và xoá toàn bộ bài viết của bạn. Ngoài ra khi phát hiện ra Spam hãy gửi thông báo cho BQT diễn đàn. Hãy suy nghĩ trước khi hành động..!
✓ Khi muốn trả lời ai đó, bạn gõ @ cộng thêm nick diễn đàn của người đó phía sau @, giống như tag tên trên Facebook.
✓ Yêu cầu khi bình luận, bạn phải gõ chữ rõ ràng, không viết tắt, gõ tiếng Việt đầy đủ dấu câu.
✓ Nên dùng font chữ mặc định của diễn đàn, không tô màu lòe loẹt hay dùng size chữ quá lớn khi bình luận.
✓ Bài viết, comment... không được phép quảng cáo dịch vụ, rao vặt, pr... Loại trừ ở chuyên mục Rao vặt đã cho phép.
✓ Nghiêm cấm các chủ đề dạng: Cứu em với, help me, giật tít, câu view... dưới mọi hình thức.
✓ Tất cả các thành viên tham gia diễn đàn cần đọc kỹ Nội quy chung và nghiêm túc tuân thủ.


Chia sẻ trang này

Đang tải...