Недавно меня попросили написать что-то типа простенького клиента, который агрегирует некоторые функции в себе с нескольких сайтов одновременно. Раскрывать всего замысла не буду, но скажу так - каждый сайт позволяет обрабатывать некоторую статистику по входным данным, но с определенными особенностями по каждому. У сайтов свои движки и о необходимости разработки апи знать не знали, когда их писали.
Так вот - единственный продукт который меня удовлетворил - это cUrl.
1-е - я изучил, как конкретно выглядят POST и GET запросы - попробуйте плагины мозиллы LiveHTTPHeaders
2-е - можно было б сразу приступить к использованию полученных шаблонов запросов в новой веб -оболочке, но решил попробовать консоль и много узнал еще интересного об этих сайтах
Например, выяснилось, что для получения ответа на запрос можно несколько GET пропустить и не грузить лишний раз системы
3-е - просто взял поэкспериментировал с libCURL под PHP
4-е - написал свой класс-сомпонент в нотации используемого фреемворка над библиотекой libCURL
А в итоге 5-е - получилось офигенное средство для курсовой работы, программа сама авторизуется, сама отправляет накопившуюся инфу из базы данных, получает несколько ответов - а вам остается только выдвигать дальнейшие гипотезы для исследования
Единственное, что в этом случае мне не оч понравилось - отсутствие многопоточности (попрошу не путать с multi curl), но это уже беда PHP.
Бросайте вы эти "клики"...Давайте лучше Контакт DDоSить) Шутка)
Пользователь решил продолжить мысль 26 Августа 2009, 20:13:44:
На любом сайте есть защита от простейшего DOS
И Windows)