Chia sẻ thông tin

KenjiVN - Quốc Trưởng

Search This Blog

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Sunday, June 10, 2012

Cách sử dụng KIS & KAV 2012 bản quyền miễn phí



Hôm nay mình sẽ chia sẻ với các bạn 1 cách để sử dụng KIS 2012 bản quyền miễn phí
Tất cả những gì các bạn cần phải làm chỉ là kích hoạt KIS với cái code này


EACSF-M1KR2-3BGSG-VQAQ6
Vậy cái code này có gì đặc biệt
-trước hết đây là code 1 tháng
-code này kích hoạt được cho nhiều máy
-và điều quan trọng là đây :
Cái code này có 1 đặc điểm rất thú vị đó là :
Bạn dùng cái code này một thời gian sau đó xóa đi và kích hoạt lại thì vẫn kích hoạt được và ko chỉ có thế mà số ngày còn lại cũng sẽ được tính lại từ đầu


Và đây là hình ảnh mà mình đã làm thử
Mình đã kích hoạt code này vào ngày 17/2



Sau khi dùng 1 ngày (tức là số ngày còn lại là 29 ngày) sang ngày 18/2 mình đã xóa đi và kích hoạt lại
Và kết quả là đây




Quả thực là rất thú vị phải ko ? ^^
Vậy các bạn đã hiểu cách dùng KIS miễn phí mà mình muốn nói chưa nào
Đó là các bạn hãy dùng cái code này đến khi gần hết hạn thì hãy xóa đi và kích hoạt lại và lại có 30 ngày còn lại
Cứ như thế bạn có thể sử dụng KIS bản quyền hoàn toàn miễn phí và ko còn phải lo đi tìm key nữa
Mọi người cùng thử và cho ý kiến nhé

p/s : do có 1 số bạn thấy như thế vẫn chưa đủ sức thuyết phục do mình mới chỉ thử 1 lần và cũng mới chỉ thử sau khi đã dùng 1 ngày
do đó sau khi kích hoạt ngày 18/2 và đã dùng được 2 ngày sang ngày 20/2 mình lại xóa đi và kích hoạt lại
và đây là hình ảnh ngày 20/2



Như vậy đã đủ sức thuyết phục chưa nào mọi người ^^

Và để đáp ứng yêu cầu của các bạn, mình đã tìm ra code tương tự để dùng cho KAV 2012



Y1PBP-5PQD5-SKEV8 -X58K8
Cái code này hoàn toàn giống với cái code kia đó là cũng có thời gian 1 tháng, cũng kích hoạt được cho nhiều máy và việc các bạn cần phải làm đó là kích hoạt KAV với cái code này và dùng nó đến khi hết hạn thì xóa đi và kích hoạt lại và lại có 30 ngày còn lại
Cứ như thế các bạn có thể sử dụng KAV 2012 bản quyền hoàn toàn miễn phí
Các bạn dùng KAV hãy cùng thử và cho ý kiến nhé

Tìm hiểu và tạo file Robots.txt

Một trong những điều cần chú ý để website của bạn có thể đạt thứ hạng cao trong các cỗ máy tìm kiếm là bạn phải xây dựng cho mình một file Robots.txt theo đúng tiêu chuẩn.
image
Vậy file Robots.txt là gì? Khi một search engine tìm đến (nguyên văn Crawler) Website nào đó, nó sẽ tìm một file đặc biệt trước tiên, đó là file robots.txt. File robots.txt cho search engine đó biết rằng, Website này có thể index hoặc không (tùy theo lệnh được viết trong file robots.txt).
Thực chất, file robots.txt là một tập tin văn bản đơn giản (không chứa mã HTML) được đặt trong thư mục gốc của web site, ví dụ
http://www.example.com/robots.txt.

Vậy, làm thế nào để tạo ra một file robots.txt? Rất đơn giản, bạn có thể mở chương trình Notepad hay bất cứ chương trình soạn thảo văn bản nào, lưu file với tên robots.txt là xong. Các dòng lệnh trong file này có cấu trúc như sau:
User-agent: googlebot
Disallow: /cgi-bin/
Trong đó
  • User-agent: là đại diện của một search engine, Googlebot là spider của Google. Trong ví dụ này, chỉ các spider của Google là được phép index web site.
  • Disallow: là không cho phép thực hiện điều gì đó. ở ví dụ trên là không cho phép các spider index thư mục "cgi-bin" trong web site.
Một số ví dụ nữa:
User-agent: googlebot
Disallow: /support
Tất cả các trang nằm trong thư mục support, hay support-desk sẽ không được index.
Nếu bạn muốn tất cả các search engine có thể index web site của bạn, nhưng không được index các trang trong thư mục "cgi-bin" thì sử dụng lệnh sau:
User-agent: *
Disallow: /cgi-bin/
  • Cho phép tất cả các search engine có thể spider toàn bộ site:
User-agent: *
Disallow: 

  • Chặn tất cả các search engine truy cập cgi-bin
User-agent: *
Disallow: /cgi-bin/ 

  • Không cho phép Yahoo! Slurp truy cập thư mục admin
User-agent: yahoo! Slurp
Disallow: /admin/ 

  • Không cho phép tất cả các search engine truy cập vào bất kì khu vực nào:
User-agent: *
Disallow: / 

4. File robots.txt mẫu sử dụng cho vbulletin:
User-agent: *
#Crawl-Delay: 10
Disallow: /cgi-bin/
Disallow: /forum/ajax.php
Disallow: /forum/cron.php
Disallow: /forum/attachment.php
Disallow: /forum/editpost.php
Disallow: /forum/external.php 
Disallow: /forum/faq.php
Disallow: /forum/global.php
Disallow: /forum/image.php
Disallow: /forum/joinrequest.php
Disallow: /forum/login.php
Disallow: /forum/misc.php
Disallow: /forum/moderator.php
Disallow: /forum/newattatchment.php
Disallow: /forum/newreply.php
Disallow: /forum/newthread.php
Disallow: /forum/online.php
Disallow: /forum/payment_gateway.php
Disallow: /forum/payments.php
Disallow: /forum/pdfthread.php
Disallow: /forum/poll.php
Disallow: /forum/postings.php
Disallow: /forum/printthread.php
Disallow: /forum/private.php
Disallow: /forum/profile.php
Disallow: /forum/register.php
Disallow: /forum/report.php
Disallow: /forum/reputation.php
Disallow: /forum/search.php
Disallow: /forum/sendmessage.php
Disallow: /forum/subcription.php
Disallow: /forum/subcriptions.php
Disallow: /forum/threadrate.php
Disallow: /forum/usercp.php
Disallow: /forum/usernote.php
Disallow: /forum/admincp/
Disallow: /forum/images/
Disallow: /forum/modcp/
Disallow: /forum/articlebot/
Disallow: /forum/clientscript/
Disallow: /forum/customavatars/
Disallow: /forum/customprofilepics/
Disallow: /forum/files/
Disallow: /forum/cpstyles/
Disallow: /forum/images/
Disallow: /forum/includes/
Disallow:/forum/subscriptions/
Disallow:/forum/attachments/ 
Disallow:/forum/frm_attach/ 

Những điều nên tránh:
+ Không sử dụng các chú thích trong file robots.txt, nó có thể làm cho các spider của search engine bị lầm lẫn. Ví dụ:
"Disallow: support # Don’t index the support directory" might be misinterepreted as "Disallow: support#Don’t index the support directory".
+ Không được để khoảng trắng ở đầu dòng lệnh, ví dụ:
User-agent: *
Disallow: /cgi-bin/
+Không thay đổi trật tự của các dòng lệnh. Ví dụ:
Disallow: /support
User-agent: *
+ Không sử dụng quá một thư mục trong dòng lệnh Disallow. Ví dụ:
User-agent: *
Disallow: /support /cgi-bin/ /images/
Các search engine không hiểu định dạng trên. bạn nên viết thế này:
User-agent: *
Disallow: /support
Disallow: /cgi-bin/
Disallow: /images/
+Phải chắc chắn các mệnh đề, từ sử dụng trong lệnh là đúng. Ví dụ, thư mục của bạn là "cgi-bin" (viết thường, không viết hoa), nhưng khí vào lệnh, bạn lại viết là "Cgi-Bin" thì các spider sẽ "bó tay".
+ Không nên dùng lệnh Allow trong file robots.txt, bởi vì trong web site của bạn chắc chắn sẽ có một số trang hoặc một số thành phần bạn không muốn bị người khác "nhòm ngó". nếu bạn sử dụng lệnh Allow, tất cả mọi ngóc ngách trong web site của bạn sẽ bị index!

Tự động tạo robots.txt

Nếu bạn có sử dụng Google Webmaster thì họ cũng cho phép bạn tạo robots.txt hoặc bạn có thể sử dụng Robots.txt Generator để tự động tạo file robots.txt cho mình ngoài ra có thể tham khảo bộ tools dành cho các quản tri web do Google cung cấp có tích hợp tạo file robots.txt Webmaster Tools Central

Tạo site map hỗ trợ SEO và page rank cho blogspot

Như các bạn biết thì google sử dụng các robot tìm kiếm có tên robot.txt, chúng tìm kiếm các thông tin đa số theo hình thức mò kim đáy bể nhưng lại có độ chính sác rất cao. Tuy nhiên không có gì là hoàn thiện cả, bạn có biết trong blog của bạn có bao nhiêu bài bị mấy tên robot đó bỏ qua không. chắc không đâu nhỉ? chắc không dưới 1/2 thông tin của bạn đâu. Con số lớn quá phải không? quả là thiệt thòi cho chúng ta nếu con số đó lớn hơn. 

Cách khắc phục là gì?

Rất đơn giản hãy tạo cho các robot của google một danh sách các bài đăng trong blog của bạn, để nó không thể bỏ qua hoặc làm ngơ với các thông tin bạn đưa nữa.

Cách tiến hành thế nào?

Chúng ta bắt tay vào làm thôi:
      1. Đăng nhập vào Google Webmaster Tools với tài khoản Google của bạn (Gmail)
Tạo site map hỗ trợ SEO và page rank cho blogspot
      2. Click vào nút Thêm trang web  (Add a site) như hình vẽ:
Tạo site map hỗ trợ SEO và page rank cho blogspot
      3. và điền URL của website cần tạo site map sau đó bấm Ok.
Tạo site map hỗ trợ SEO và page rank cho blogspot
      3. Bấm như hình để vào cài site map.
Tạo site map hỗ trợ SEO và page rank cho blogspot
      3. Bấm nút thêm/Kiểm tra sơ đồ trang web để tạo site map.
Tạo site map hỗ trợ SEO và page rank cho blogspot
      3. Dán đoạn code sau vào:
atom.xml?redirect=false&start-index=1&max-results=500
và chọn gửi sơ đồ trang web
Tạo site map hỗ trợ SEO và page rank cho blogspot
Chú ý thêm nếu blog của bạn có nhiều hơn 500 bài viết thì bạn add thêm link sau:
atom.xml?redirect=false&start-index=1&max-results=500
atom.xml?redirect=false&start-index=501&max-results=500
atom.xml?redirect=false&start-index=1001&max-results=500
atom.xml?redirect=false&start-index=301&max-results=100
atom.xml?redirect=false&start-index=401&max-results=100
atom.xml?redirect=false&start-index=501&max-results=100
atom.xml?redirect=false&start-index=601&max-results=100
atom.xml?redirect=false&start-index=701&max-results=100
- ở đoạn code thứ 2 có ngĩa là từ bài viets thứ 501 trở về trước lấy thêm 500 bài nữa. Cong việc còn lại là chờ giigle xác nhận thôi!
Chíc bạn thành công!

Saturday, June 9, 2012

Tut mở khóa còng cho ae



Còng thép
Còng Plastic

20 kiến thức về CSS cần phải biết




1) Biết dùng reset.css:
2) Biết dùng css shorthand:
3) Hiểu cách dùng class và id
4) Biết cách sử dụng HTML semantic (dùng li để làm menu ... chẳng hạn)
5) Dựng layout bằng div thay cho table (tất nhiên vẫn dùng table cho dữ liệu dạng bảng. Để làm cái này phải nắm vững cái 10 ở dưới)
6) Biết dùng các công cụ debug CSS (mà nổi tiếng nhất là Firebug)
7) Biết rút gọn selector (đừng viết dài dòng thừa thãi)
8) Biết 1 số CSS Hack thông dụng như: !important
9) Biết kỹ thuật thay text bằng image (ví dụ dùng text-indent là một số âm thật lớn)
10) Biết các kỹ thuật CSS Positioning như: float: left, right ..
11) Biết CSS được load như thế nào (phân biệt @import và )
12) Biết làm đẹp form bằng CSS
13) Thường xuyên xem code các website làm CSS chuẩn
14) Biết làm góc bo tròn bằng CSS
15) Biết cách bảo trì code CSS (viết code để người khác đọc, hoặc mình sau này đọc lại còn hiểu, cấu trúc rõ ràng, có comment...)
16) Biết sử dụng các loại đơn vị kích thước khác nhau như: px và em
17) Biết sự khác nhau về CSS giữa các trình duyệt (cùng 1 thuộc tính CSS thể hiện trên các trình duyệt khác nhau sẽ khác nhau thế nào, nhất là kiến thức về Box Model do IE 6 và các trình duyệt theo chuẩn quan niệm khác nhau về width, height ...)
18) Biết thiết kế một trang web nhiều cột bằng CSS (cái này không khó nếu bạn nắm vững cái 10)
19) Biết dùng 1 CSS Editor (như Dreamweaver, Notepad++ ...)
20) Biết cách dùng media type (để trang web hiển thị khác nhau trên các loại thiết bị khác nhau: máy tính, máy chiếu, máy in, máy điện thoại di động...)