Если п2п сети так распространены, то почему интернет сайты не работают таким образом. Представьте если реализовать такую систему, при которой человек будет получать сайт кусками от множества пользователей, которые же на нем побывали(кэш или собств прога). Было бы весело и быстро=)))))Кто че думает, какова сложность реализации по Вашему мнению
21 марта 2010 в 0:05
ну да прикольно кстати, моя тема отпадает=)))
21 марта 2010 в 0:04
А вот multicast и anycast? Тоже ведь красиво =) Не меньше, чем и твоя идея.
21 марта 2010 в 0:03
Что такое маршрутизация я знаю=))))про айпив6 слышал=)
21 марта 2010 в 0:02
ггг да я об этом вот и думал=)))) чета надо придумать
21 марта 2010 в 0:02
нет, канеш если каждый пользователь будет пользоваться этой системой,то все офигенно будет=)
21 марта 2010 в 0:02
Идея не жизнеспособна, увы. А вот multicast и anycast – другое дело. Ждите всеобщего IPv6 =) Топикстартеру, возможно, будет интересно прочитать на вики про маршрутизацию
//ru.wikipedia.org/wiki/IPv6
//ru.wikipedia.org/wiki/Маршрутизация
21 марта 2010 в 0:01
а зачем?
21 марта 2010 в 0:01
для быстроты и анонимности
21 марта 2010 в 0:01
Если страница статична:
1) Напрямую запрашиваем страницу с сервера
или
2) опрашиваем сервер, получаем список машин, делаем к каждому запрос на предмет хранения копии страницы
Что быстрее? (1) или (2)?
Если страница динамична (форум, например):
Что я получу, если у юзера 1 страница недельной давности, у юзера 2 – 2-х дневной, а у юзера 3 – паручасовой, но 5 минут назад на странице добавились новые сообщения. Что я увижу?
21 марта 2010 в 0:01
угу… а контент на сайте как менять, чтоб быстро и анонимно?
21 марта 2010 в 0:00
не, базару нет, один сайт на p2p протянет, но на поток – загруз будет такой, что мама не горюй))) забейся и забудь ©)))
p.s. + хранение 1000 копий сайта не есть тру…
20 марта 2010 в 23:05
ну я ж говорю ставить приоритеты и выделять для программы максимум 1 гиг и по ходу заполнения этого гига удалять стаые, а оставлять новые сайты
20 марта 2010 в 23:05
допустим лежит у тебя база данных а тут све откл и что дальше? все себе ради этого бреда генераторы ставитьь не будут
20 марта 2010 в 23:05
Пля, по-моему проще поставить безлимитку, чем сидеть на лиме
20 марта 2010 в 23:05
Тёма ушел в ASP Тёма, ну и что, отключишься от сети ты один, есть ведь и другие
20 марта 2010 в 23:05
Тёма ушел в ASP Тёма, ты видимо не понимаешь принцип работы p2p сетей
20 марта 2010 в 23:04
не актуфльно,это не не торрент
20 марта 2010 в 23:04
Тимур Jupiter Насибуллин, во во, я том же, только в росси все опаздывает года на 2=))))системаотлична, но сложна в реализации
20 марта 2010 в 23:04
Тёма ушел в ASP Тёма, канеш не торрент, это нечто большее
20 марта 2010 в 23:04
//en.wikipedia.org/wiki/Freenet ?
#6, в Netsukuku немного другая идея.
20 марта 2010 в 23:04
это нечто не актуальное, хотел такую хрень сделать пытался , а патом забил ибо тупо
20 марта 2010 в 23:04
ну если забивать то канешно я самый умный а идея дерьмо, а если заняться серьезно и захватить для начала 10000 юзеров, представьте сколько контента будет доступно=)
20 марта 2010 в 23:04
тупон7ф9тиг5ага и ты на все компы защитупоставишь??? хрень это! это таже система контакта ток на копах
20 марта 2010 в 23:04
Колян, а харды? допустим у меня место 50 гигов… неделя и капец… а помимо сайтов еще есть места…
Вообще все сведется к тому, что твой сайт будет хранится скажем на 5000 машинах вместо одной… соответственно, понесутся "чистилки"
20 марта 2010 в 23:04
djnyfabu мне надо будет свой трафик палить? у меня не безлим) ради чео?
20 марта 2010 в 23:03
Ага… я создал сайт, дал рекламу… у меня отключили свет и все посетители остались без сайта)))
20 марта 2010 в 23:03
наверно неэфективно для очень большого кол-ва мелких файлов. да и провы думаю используют кэширующие серверы… так, что нет необходимости…
PS: может можно было бы сделать кэш не на одном сервере а из всех компов в локальной подсети провайдера – геморой =)
20 марта 2010 в 23:03
гг, дело в том что его копия должна быть не только у тебя=)))а так бери бесперебойник=)
20 марта 2010 в 23:03
не все использую кэш сервера, я бы сказал немногие. Просто в этом случае больше не придется ограничиваться скоростью только лишь хостера, а подключать многих юзеров=)
20 марта 2010 в 23:03
я читал на хабрахабре недавно о чем-то подобном. Там прога организует свой маленький интернет по принципу п2п. Проект называется Netsukuku.
Вот, нашел:
//habrahabr.ru/blogs/p2p/86702/
Хотя это не совсем п2п, по-моему…
Но суть в том, что доступ к сайтам и сети вообще не требует наличия отдельных серверов.
20 марта 2010 в 23:03
Ну представь все начнут так "думать"… за день сколько сайтовутебя на харде останется? почему я должен хранить на харде твой сайт?
20 марта 2010 в 23:03
в этом трабл=))))ну как бы систему приоритеовкак в п2п мога делать, если ты отдал его допустим 100 людям, формат папку с данными этого сайта или если этот сайт есть у многих пользователей, которые позже зашли на него