Price comparison web crawlerprojekty
Poszukujemy osoby zdolnej do zaprogramowania narzędzia, które umożliwi nam analizę i selekcję informacji na stronach www. Celem jest stworzenie zaawansowanej bazy danych, która pozwoli na efektywne sortowanie i filtrację stron według specyficznych parametrów, takich jak poziom aktywności użytkowników. Naszym priorytetem jest zgromadzenie i organizacja informacji w sposób umożliwiający łatwe zarządzanie i dostęp do danych.
Cześć, Szukam kogoś, kto będzie w stanie wykonać dla mnie stronę internetową od podstaw. Wytyczne: - strona w formie katalogu - każdy produkt będzie miał tytuł, opis, kilka zdjęć oraz kilka krótkich dodatkowych informacji - potrzebny crawler, który będzie pobierał automatycznie dane tekstowe oraz zdjęcia z innej strony - zarządzanie treścią z poziomu panelu administracyjnego
Poszukujemy oprogramowania pobierającego określone dane ze wskazanych stron web (określimy dokładnie wszystkie potrzebne dane), oraz zapisaniu ich do bazy danych. Baza danych będzie znajdywać się w chmurze AWS (RDS).Web scraper może działać jako serverless worker bądź jako skrypt odpalany na komputerze. Model danych w bazie danych musi być stworzony tak aby odczyt był prosty i szybki. Obecne wyżej wymieniona strona posiada zabezpieczenia przed web scrgapingiem.
Preferowana, ale nie wymagana platforma: C# .NET lub C Kompilacja + źródła Crawler będzie operował na wcześniej przygotowanych plikach. Logowanie na numer GG Wysyłanie wiadomości. Przepływ numerów między plikami: 'do wysłania' -> 'wysłano' Rotacja numerów wysyłających. Konfiguracja w pliku: - rotate: co ile wiadomości ma nastąpić przelogowanie - delay: co ile ma zostać wysłana kolejna wiadomość, wartość losowa z zakresu od-do Plik nadawców: kolumna numer-hasło Plik odbiorców: kolumna numerów Plik przetworzonych odbiorców: kolumna numerów Plik z treścią wiadomości Interfejs: Start/Stop
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firmy - z pliku tekstowego.
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod Windowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Następnie operator ręcznie wybiera kryteria i klika start - crawler zaczyna pracę. Crawler przechodzi na kolejne podstrony (są przyciski nawigacji) Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Szykamy osoby która podejmie się zrealizowania crawlera, który będzie scrapował dla nas kilka danych z : - Crawler powinien odwiedzić zadany przez nas region np. - wejść w każdą z kategorii jakie są dostępne w menu np. berbershop, fryzjers, kosmetyczka itd. - Odwiedzić wszystkie rekordy (salony) z listingu kategorii i zebrać dla nas dane: - Nr telefonu - Nazwa salonu Jeśli istnieje: - adres www profilu facebook - adres www profilu instagram - adres strony www zatem każdy rekord powinien zawierać min. 2 dane max 5 danych. Dane mogą być zapisane w bazie danych lub w pliku. Program powinien działać na serwerze, moze byc napisany w java, php lub nodejs
...Zalozenia logiki: * crawler dodaje oferty do bazy danych * crawler nie dubluje ofert - rozpoznaje juz dodane * crawler normalizuje dane z oferty w zakresie -- podzial administracyjny (wojewodztwo, powiat, gmina, miasto) -- adres -- typ nieruchomosci - dom/mieszkanie/dzialka (rolna, budowlana, lesna etc) -- typ ogloszenia (sprzedaz, wynajem) -- rodzaj ogloszenia (prywatne, posrednik) -- link do strony -- zdjecia -- data utworzenia ogloszenia -- Identyfikator ogloszenia -- cena -- powierzchnia -- dane dodatkowe (liczba pokoi, pieter) -- opis * crawler dotyczy 2 stron (slownie: dwóch stron) z ogloszeniami (strony do uzgodnienia podczas nawiazania kontaktu) * crawler wykrywa blokade stron lub blad serwera Zalozenia techniczne: * crawler posi...
Witam, poszukuje wykonawcy web crawlera ktory ma za zadanie monitorowac zapas produktow w dowolnych wyznaczonych przezemnie sklepach internetowych. Funkcje na ktorych mi zalezy to: 1)Praca w srodowisku windows server. 2) Mozliwosc wczytania adresow url z produktami z pliku 3) zapis wartosci stanu magazynowego w bazie danych 4) mozliwosc ustawienia czestotliwosci pobierania danych z tego samego sklepu np. raz na dzien, raz na godzine, 5) Kreowanie raportu z tego jak zmienial sie stan magazynowy danego produktu w jednostce czasu. 1 dzien, tydzien, itd. 6) mozliwosc zastosowania datacenter proxy i regulowana czestotliwosc rotacji ip
Zlecę dodanie do istniejącego serwisu następujących funkcjonalności: systemu dodawania ogłoszeń z opcji darmowej na płatną cenników oraz abonamentów w panelu z płatnościami dotpay Portal oparty o sysyem OSCLASS MARKET ------------ ...istniejącego serwisu następujących funkcjonalności: systemu dodawania ogłoszeń z opcji darmowej na płatną cenników oraz abonamentów w panelu z płatnościami dotpay Portal oparty o sysyem OSCLASS MARKET ------------ I would like to add the following functionalities to the existing website: 1. Change of the system of adding ads from free to paid option 2. Adding price lists and subscriptions in the panel with dotpay payments Portal based on OSCLASS MARKET system
Zlecę przygotowanie dedykowanego crawlera do strony www. Crawler musi działać lokalnie pod WIndowsem. Wymagania: Po uruchomieniu parser loguje się lub umożliwia ręczne zalogowanie do strony www - musi być crawlerem ekranowym. Możliwość ustawienia losowych interwałów pomiędzy kolejnymi pasrsowanymi stronami. Wczytanie listy zapytań - nazwy firm lub domeny - z pliku tekstowego.
Cześć mam zlecenie do wykonania, chodzi o crawler dla otodom
...Zarządzanie zasobami ludzkimi. Praca zaliczeniowa dotyczy przedmiotu Etyka w zarządzaniu. Temat, wytyczne a także przykładowa literatura są podane w języku angielskim, natomiast praca ma być napisana w języku polskim. Minimalna ilość stron to 7. Termin oddania pracy 28.03.2018. Temat pracy: General topic: Current Forms of Situation Ethics and its Practical Impact on Management and Economy. A Comparison between Situation Ethics and … Particular topics: … the Theory of X (an exemplary thinker), who represents a. … feminism b. … neomarxism c. ... postmodernism d. … “new” theology e. … business (management) ethics Spośród punktów od a do e podanych w tytule należy wybrać jeden...
Poszukuje osoby do zarządzania projektem Projekt polega na sklonowaniu/pobranie przedmiotów opisów zdjęć z e-sklepów skatalogowaniu i zaimportowania do naszego sklepu na prestashop. Freelancer za rekrutowany będzie miał do wykonania następujący zakres prac: -Pozyskanie np. tutaj programisty który napiszę Web crawler dla jednej ze stron: -Pobranie kategorii/podkategori/przedmiotów, zdjęć, opisów, specyfikacji, marki, dodatkowych opcji i atrybutów oraz pdf jeśli istnieje do pliku .CSV -Postawienie sklepu na Prestashop, zakup szablonu, grafik i przygotowanie do funkcjonowania działalności sklepu łącznie ze stworzeniem menu kategorii oraz import przedmiotów z wcześniej przygotowanych .CSV
witam, potrzebuje prosty skrypt typu crawler-scraper, który wyciągnie określone dane ze stron. przykładowo na witrynie jest 100 stron, na każdej stronie tytuł serialu, nazwa odcinka i link. chciałbym, aby skrypt pobierał te dane z każdej ze 100 stron i zapisał do bazy danych.
Potrzebny mi crawler/scraper oparty na PHP, pozwalający wyszukiwać produkty spośród wybranych sklepów internetowych (Komputronik, , ProLine, NET-S) i pozwalać na synchroniczne zakupy (wspólny wirtualny koszyk dla wszystkich). Wyświetlanie produktów powinno być możliwe do edycji w oparciu o CSS. Potrzebna jest również możliwość filtrowania produktów (chodzi o części komputerowe) wg filtrów, używanych w tych sklepach.
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs. Wdrożyć całość na EC2
Mam napisany web crawler, który tworzy bazę danych. Trzeba podłączyć go pod istniejącą stronę, aby zapełnią ją treścią. Strona jest napisana w Rubym, web crawler w nodejs.
Witam, potrzebuję prostęgo parsera/crawlera stron internetowych, który: 1. Pobierze adres z danej mu listy serwisów internetowych i przejrzy wszystkie podstrony z danego adresu (kilka poziomów wgłąb, pozostając w jednej domenie). 2. Przeglądając podstrony wychwyci teksty pasujące do podanych razem z adresem wyrażeń regularnych (2- 3 wyrażenia). 3. Zapisze wyniki, np. w formie pliku CSV. 4. Po przejrzeniu podstron danego serwisu przejdzie do następnego serwisu z listy. Podsumowując, na wejściu mamy listę: [adres1], [wyrazenie reguralne 1], wyrazenie regularne 1] ... [adresX], [wyrazenie reguralne Xa], wyrazenie regularne Xb] A wynikiem prac jest lista plik w formacie: [podstrona 1 adresu 1], [test pasujący do wyrażenia 1], [tekst pasujący do wyrażenia 2...
Chciałbym zlecić napisanie programu, który działałby w sposób podobny do tego programu: Zależy mi żeby taki program mógł chodzić po stronach internetowych i zczytywać z nich linki do zewnętrznych stron. Przykład: chciałbym, żeby program podał mi listę wszystkich domen znajdujących się we wskazanym przeze mnie katalogu stron w sekcji 'medycyna'. Bardzo istotna jest tutaj możliwość zawężania crawlingu do określonych sekcji witryn. Można to zrobić np. po filtracji adresów url, które muszą zawierać np. jakiś ciąg znaków np 'medycyna'. Dodatkowo na samym końcu pracy program powinien w prosty sposób sprawdzać, czy dana domena istnieje, czy też nie. Może być to sprawdzane po nagłówkach. Nie ma potrzeby odpyty...
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Witam potzebuje aplikacje ktora pobierala by dane z ksiag wieczystych na podstawie listy nr ksiag oraz przechowywala dane w jakiejs tabeli dodatkowo aplikacja powinna miec zintegrowana obsluge Czy jest mozliwe wykonanie takiego zlecenia, jaka cena?
Witam serdecznie, Do napisania jest crawler ściągający i parsujący ogłoszenia z danego portalu. Jeśli współpraca będzie się dobrze układać osoba może liczyć na napisanie kolejnych crawlerów dla innych portali. Będzie ich tak 10-15 (?). Dokładny, a jednocześnie bardzo krótki i czytelny opis zadania znajduje się pod linkami: (polecam wkleić do notatnika z kolorowaną składnią)
Zlecę skrypt który uruchomiony pobierze z wybranych sklepów internetowych listę wszystkich produktów, a następnie z ich indywidualnych stron specyfikację każdego produktu i zebrane dane wgra do bazy MySQL, a obrazki do folderu "images". Skrypt będzie regularnie uruchamiany i w razie wykrycia zmiany ceny produktu ma ją aktualizować w bazie. Celem jest monitorowanie produktów pięciu z góry określonych sklepów internetowych. Tylko backend, zadnych widocznych elementów - chce po prostu te dane mieć w MySQL.
Poszukiwana osoba do wykonania projektu na temat crawlingu w pythonie 3.0 Projekt krótki, udostępniam materiały potrzebne w tworzeniu kodu.
Zlecę wykonanie projektu tj: -stworzenie kodu w języku python 3 (zagadnienie główne crawler zasobów) -objaśnienie go tj. funkcjonowanie Do projektu dołączam potrzebną literaturę w postaci pdfów. Wystarczy gotowe wzory przekształcić w kod. Nie ukrywam, że liczy się dla mnie cena, ale też skuteczność więc liczę na korzystny kompromis dla obu stron :)
Szukamy osoby lub firmy, która wykona dla nas aplikacje deskotopową- crawlera, która: - pobiera dane on line ze specjalnego pliku wymiany ( do uzgodnienia) razem z konfiguracją - odwiedza adresy z pliku, pobiera o nich dane (size, status, whois, ip, treśc tagu title, description, keywords) - przesyła pobrane dane na serwer - odpowiednio skonfigurowany potrafi podążać dodatkowo za linkami wewnętrznymi ( w danej domenie ) - zdalnie konfigurowany potrafi sprawdzać dodatkowe parametry (wyrażenia regularne) np treść pierwszego tagu h1, - słucha poleceń , przedstawia się poprawnie - konfiguracja po stronie użytkownika: liczba jednoczesnych połączeń, limit transferu, autouruchamianie po starcie - współdziała uruchomiony na raz na wielu maszynach Technologia po stronie se...
Zlecę napisanie programu typu Web Crawler, który będzie mógł ściągać wiadomości oraz artykuły z jak największej ilości podstron z portali , , interia.pl. Dane powinny być podzielone na pliki tekstowe, których rozmiar nie będzie przekraczał 10MB. Idealnie jedno zdanie - jedna linia. Program powinien działać pod Ubuntu i nie powielać ściągniętych już danych, jak również powinien je ściągać co jakiś czas, tak aby nie zablokowano adresu IP.
Mam zaplanowane kolejne zadania związane z naszym poprzednim zleceniemPlugin Joomla/VirtueMart Price from Exelfile'
Zlecę wypozycjonowanie strony w wyszukiwarce słowa kluczowe: Energy price comparison Swiching energy providers Cut cost of energy Gas & electricity company in uk How to reduce gas and electricty bill Lower energy bills proszę o konkretne i szczegółowe oferty
...SVN umiejętność posługiwania się w systemie Redmine znajomość zagadnień związanych z bezpieczeństwem, wydajnością aplikacji internetowych umiejętność dokumentowania kodu (wymagana dokumentacja kodu + dokumentacja online) umiejętność testowania kodu (wymagane testy jednostkowe) znajomość biblioteki cURL lub pochodnych Mile widziane: znajomość środowiska Linux budowanie systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest automatyczna publikacja ofert na wcześniej wyszczególnionych serwisach (około 5) typu oferty pracy/zleceń. Aplikacja przesyła przygotowane dane poprzez zalogowanie się (bez captchy) na danym serwisie (konta wcześniej już są utworzone) i publikację zlecenia/oferty. Przesyłane dane w formie ustalonego wcześniej szablonu będ...
...SVN umiejętność posługiwania się w systemie Redmine znajomość zagadnień związanych z bezpieczeństwem, wydajnością aplikacji internetowych umiejętność dokumentowania kodu (wymagana dokumentacja kodu + dokumentacja online) umiejętność testowania kodu (wymagane testy jednostkowe) znajomość biblioteki cURL bądź pochodnych Mile widziane: znajomość środowiska Linux budowanie systemów/robotów typu Web Crawler Aplikacja: Celem aplikacji jest indeksacja ofert pracy/zleceń z wyszczególnionej listy serwisów (około 5). Zdobyte wyniki powinny być składowane w odpowiednio zaprojektowanej bazie danych. Aplikacja będzie uruchamiana w tle na serwerze w równych odstępach czasu. Aplikacja powinna zawierać limity czasu odpowiedzi na zapytania oraz umożliwi...
Poszukuję bardzo dobrego programisty php, wdrożenia oparte na silniku sphinx, crawler
Witam, Zlece pozyskanie klientow na aplikacje Crawler, sluzaca do tworzenia baz teleadresowych. Strona aplikacji Wynagrodzenie: 30% od wartosci sprzedanej licencji. Cena aplikacji moze byc rozna w zaleznosci ile modulow aplikacji zakupi klient.
Witam, Potrzebuje jakby to nazwać: skrypt/bot/crawler, który będzie imitował wejście na konkretną witrynę i jej podstrony. Skrypt ma działać na takiej zasadzie, że uruchamiam go ręcznie lub automatycznie np co dwa dni i odwiedza strony które sa dopisane (w zależności od potrzebny linki do podstron, mogę wprowadzić ręcznie, jednak lepszą opcją jest dodanie tylko domeny głównej, a niech sam szuka wszystkich podstron - np jak generatory map stron w necie). Działanie skryptu ma imitować naturalne wejście na strone przez użytkownika, czyli ma to byc widoczne np na liczniku odwiedzin + plus ma uruchomić skrypt php, który jest wrzucony na stronę. W skrócie uruchomienie skryptu na konkretnej witrynie/podstronie ma być równoważne temu jakby człowiek ...
Crawler odwiedzjacy strony przez rozne IP z Polski, mala czestotliwosc do kilkuset na dzien. Mozliwosc sterowania czasem i intensywnoscia wejsc , oraz wybor podstron do odwiedzin. Brak zbierania danych oprocz pomiaru raz na jakis czas czasu otwierania witryny.
Witam, Zlecę stworzenie porównywarki cen. Proszę o propozycję technologii wykonania, orientacyjnego czasu i kosztu. Grafika jest już gotowa, pocięta. Interesuje mnie także zaproponowanie rozwiązania następującego problemu jaki widzę podczas budowy takiego serwisu, a mianowicie. Sklepy udost...przedstawienie rozwiązania tego problemu lub jakichś uproszczeń które łatwo pozwolą grupować produkty. Bardzo proszę o oferty od osób z doświadczeniem, wymagane portfolio lub opis wykonanych prac z linkami. Proszę podać widełki cenowe(+/-). Proszę napisać w jakiej technologii chcą Państwo realizować zlecenie? Porównywarka na wzór: - - W załączniku wstępny opis Pozdrawiam
Zlecę napisanie programu, który zbierałby dane firm z serwisów typu PKT i zapisywał je do pliku. Więcej informacji na maila. Ewentualnie proszę przesłać swój nr. telefonu, zadzwonię.
Przedmiotem zlecenia jest pozycjonowanie strony angielskiej w www.google.co.uk. Hasła: My salary Salary Calculate my salary Salary checker Salary comparison Pay calculator Pay averages Pay scale Prosimy o warunki współpracy wraz z wyceną każdej frazy na wspolpraca@ Dla zainteresowanych: Domena jest poprawnie zaindeksowana w google posiada 2 lata.
Jezyk bez wiekszego znaczenia ale chyba najwydajniej w tych ktore wymienilem w temacie? Co godzine w katalogu X pokazuje sie nowy plik z URLami gdzie jest ich 400k :-) (to juz mam) Trzeba z tych URLi wyciagnac "URLe zawierajace unikalne domeny" (nie mylic z "unikalne domeny z urli") zostaje ok 250k :-) (mam w pythonie kod do udostepnienie) Aplikacja ma wykryc nowy plik z urlami i odwiedzic wszystkie te strony :-) Jak je odwiedzi to sobie gdzies zapisuje zeby tego pliku juz wiecej nie obrabiac a sam plik pakuje i zostawia. Najwazniejsze ;p po podbraniu danej strony (same zrodlo, bez grafiki,ciasteczek,css itp) aplikacja szuka ciagow znakow (plik konfiguracyjny) jezeli dany ciag znajduje to taki url umieszcza w pliku danej grupy /wyniki/ O co chodzi z gr...
...plus tabela z podzialem linków (wersja 64bit / mirrory do obecnej wersji / starsze wersje) 2)Galeria Panel adminitracyjny Dynamiczne dodawanie kolejnych skrinów (analogicznie jak w linki podpunkt 1) -> sprawdzanie czy obraz skrina jest mniejszy od 800-600 jeśli nie to konwertowanie do tego rozmiaru. 3)Web Crawler Klasa pajączka przeszukującego witryne wskazaną witryne i ściągająca odpowiednie dane. bliższe info na maila - Można skrzystać z gotowej klasy web crawlera. 4)Rejestracja użytkowników Chciałbym aby rejestracja użytkowników opierała się na bazie użytkowników z eupload.pl. Walidacja treści bez przeładywania strony (ajax) w okienku rejestracja – Standardowo login mail i haslo powinno być...
Witam Serdecznie, proszę o wycenę robota (crawlera) jednego lub wielu pobierającego dane z 30 głównych portali ogłoszeń nieruchomości. Podstawowe wytyczne co do robota: 1. Praca online - pojawiają się nowe ogłoszenia, powinny być zapisywane w bazie danych 2. Wyciąganie za pomocą wyrażeń regularnych XPATH i innych metod danych o nieruchomościach 3. Ciekawsze kwestie do rozwiązania: - niektóre portale nie umożliwiają wyświetlania wszystkich ogłoszeń, trzeba przechodzić po województwach i typach nieruchomości aby dotrzeć do konkretnego -portale dzielą się na ogłoszenia promowane i niepromowane - trzeba znaleźć algorytm przechodzenia do ogłoszeń niepromowanych w sposób automatyczny (allegro) -niektóre portale nie mają sortowanie ogłoszeń po dacie ...
...programistę II. Założenia ogólne: 1. Zaprojektowanie tematycznej wyszukiwarki internetowej w skład której wchodzić ma Front End, Back End oraz Crawler stron WWW. 2. Technologia wykonania wyszukiwarki: JAVA (servlets + jsp) + Cassandra, lub JAVA (servlets + jsp) + MySQL, oraz doraźnie dynamiczne elementy wykonane w JavaScript/AJAX/JSON/YouNameIt 3. Środowisko działania: wyszukiwarka będzie funkcjonował w środowisku UNIX; podczas projektowania od razu należy nastawić się, że skrypt będzie dość mocno obciążony. Front End będzie stał za loadbalancerem + klaster WWW, oddzielny klaster dla bazy danych, nielimitowaną ilość samodzielnych nodów pod Crawler 4. Możliwość wykorzystania istniejących komponentów dostępnych na wolnych licencjac...
Szukam sprytnych osób lubiących i znających się na pisaniu crawlerów, spiderów i tym podobnych spraw. Zlece napisanie crawlerow i spiderow nawet wiecej niz 1 osobie gdyz do napisania w najbliższym czasie od kilkunastu do kilkudziesięciu robaków. Chętni powinni być z Krakowa. Proszę o kontakt na email @ wraz z krotkim info o sobie pod katem powyzszych zapotrzebowan czyli np. dosiwadczenie w podobnych programach. CV mile widziane choc na tym etapie nie niezbedne.
Witam Poszukuje osoby, która wykona dla mnie moduł porównywarki produktów do systemu PrestaShop. Coś jak: Pozdrawiam
Witam serdecznie, Zlecę napisanie ok. 15 stron pracy na temat Functional Approach in translation tourist guides and brochures, interesuje mnie w całości rozdział poświęcony części praktycznej i porównanie tekstów: czyli coś cyklu : Functional approach - Comparison and differences between ............ Jeśli chodzi o wytyczne pracy: czcionka 12, tytuły rozdziału 14, przypisy 10. Bibliografia musi być zawarta. Cytaty nie mogą przekroczyć 10% pracy. Przewidziany okres czasu poświęcony pisaniu ok.14 dni Proszę o krótki opis Państwa doświadczenia na maila: dominika-wanat@
...com/wt_24475/index.html. Możliwe że po kliknięciu na poszczególną "zakładkę" będzie gdzieś przenosić; - Przerobić CSS modułu ArtForms tak żeby wyświetlał zdjęcie jako tło. W projekcie będą dwa formularze z dwoma różnymi zdjęciami w tle; - Zmodyfikowanie menu Joomli do wyglądu przedstawionego na projekcie; - Pomoc w zmienieniu tła modułu images crawler oraz modułu do wyświetlania galerii (jeszcze nie zdecydowałem co to będzie za moduł) Należy brać pod uwagę ewentualne drobne poprawki szablonu zgodnie z sugestiami klienta. Zlecenie łatwe szybkie i przyjemne. W razie konieczności zapewniam Joomla na moim serwerze z wszystkimi potrzebnymi modułami + dostęp do serwera. Rozliczenie
Witam, chciałbym importować XML Data Feeds z sieci afiliacyjnych. Potrzebuje do tego: 1) wordpress theme, cos takiego jak to: 2) CSV / XML Import 3) wordpress price comparison, cos takiego jak to: proszę tylko o sensowne propozycje i najlepiej o przedstawienie takiego wordpressa. Wybór usługodawcy odbędzie się na podstawie przedstawionego wordpressa, który będzie automatycznie dodawał z XML importu strony do wordpressa i beda ustawione linki (zamaskowane) oraz title, description & friendly URLs itd. Jeżeli są pytania, proszę o kontakt. seta100@
Witam Poszukuje osoby do wypozycjonowania dwoch stron. Pierwsza to skierowana do polakow mieszkajacych w UK i chcialbym ja wypozycjonowac na dwa hasla: child trust fund, child trust fund po polsku na Droga strona to jest to strona po angielsku skierowana na rynek angielski ...Poszukuje osoby do wypozycjonowania dwoch stron. Pierwsza to skierowana do polakow mieszkajacych w UK i chcialbym ja wypozycjonowac na dwa hasla: child trust fund, child trust fund po polsku na Droga strona to jest to strona po angielsku skierowana na rynek angielski i chcialbym ja wypoziomowac na hasla: child trust fund, child trust fund comparison, child trust fund accounts w ,
Witam, Poszukuję osoby która napisze w php crawler/harvester czyli skrypt do pobierania danych. Skrypt ten powinien łączyć się przez strony typu web proxy () lub zwykłe proxy. Zatem najpierw pobiera listę dostępnych proxy a następnie wybiera losowo jeden i łączy się z docelową stroną. Wykonanie w cURL + preg_match Przykładowy skrypt powinien pobierać np. ogłoszenia automoto wraz z danymi i linkami do zdjęć a następnie dane zapisywać w mysql. Posiadamy już wykonany taki skrypt zatem pozostało zaimplementowanie kodu odpowiadającego za łączenie przez proxy + dopasowanie zrzutu danych do aktualnej struktury mysql. Proszę o: 1) wycenę napisania takiego kodu (proxy) 2) koszt godziny pracy podczas dopasowywania do mysql. 3) określenie czasu wykonania samego