Drop the merge.d.o proposal because it is running on snapshot.d.o already
[mirror/dsa-wiki.git] / input / hardware-wishlist.creole
1 = Hardware Wishlist =
2
3 == snapshot.debian.org ==
4
5 Currently snapshot.debian.net is operated by a single individual on their
6 hardware at home. It is a service archiving old binary and source packages.
7 Access to old packages, which have in the meantime been deleted from the
8 regular debian archive, allows Developers and Users to debug upgrade problems,
9 to check when regressions were introduced, to check if old packages had been
10 miscompiled, to downgrade to older versions while bugs are being fixed etc.
11
12 Requirements:
13
14 * Two systems with sufficient storage, hosted somewhere not in the US (so we
15   can import old non-US into it).
16 * Storage should be at least on the order of 8T (currently snapshot.d.n is
17   using about 4T), and easily expandable
18 * remote management stuff
19
20 Proposers:
21
22 * Joerg Jaspert/ftpteam
23 * Peter Palfrader
24
25
26 == data.d.o ==
27
28 A service by ftpmaster to host larger arch-all packages for datasets like
29 scientific databases (e.g. RCSB PDB, a database of protein structures) or
30 datasets for games.
31
32 This service could (and probably should) share hardware with snapshot.
33
34 Proposers:
35
36 * ftpteam/Joerg Jaspert
37
38
39
40 == source.debian.org ==
41
42 Idea: A machine which has all sources extracted from orig.tar.gz + diff applied for all dists.
43
44 Requirements:
45
46 * a system with sufficient disk space (how much is that?)
47
48 Proposers:
49
50 * Noel Koethe
51
52 = Historical =
53
54 These proposals probably are no longer relevant:
55
56 == new debian mail setup ==
57
58 A set of systems that will handle all incoming mail for all debian systems.
59 Currently our incoming mail handling is on the individual host hosting a
60 service, i.e. on master.debian.org for @debian.org, on bugs.debian.org for the
61 bug tracking system, on lists.debian.org for our mailinglists and on several
62 other systems for their individual, smaller email traffic.
63
64 Centralizing email handling will allow us to maintain our anti-spam measures in
65 a single point, avoiding duplicate work and hopefully improving our success.
66
67 Requirements:
68
69 * Four or so systems, in at least two different locations, capable of handling
70   modern anti-spam software. This probably needs a bit of CPU.
71 * remote management stuff
72
73 Proposers:
74
75 * Martin Zobel-Helas
76 * Stephen Gran
77
78 We probably have sufficient hardware for this. Current plan involves using one
79 new box from HP, murphy, a new old sparc that zobel gets from some place, and
80 puccini that will soon no longer have packages on it.
81
82 Status (2009-05-02):
83
84 We probably still eventually want to move to a more cenralized setup for all
85 the low-traffic leaf-sites, but momentum on the Big Mail Setup Change seems
86 to have pretty much died.  Since Stephen put quite a lot of work into making
87 our exim setup more readable, maintainable and we are using the same config now
88 everywhere, at least some of the reasons for this proposal are no longer valid.
89 It still might make sense to eventually move @debian.org mail from master to a new
90 system but we don't need 4 dedicated hosts for that, probably.  (weasel)
91
92 == new bugs.d.o ==
93
94 Currently bugs runs on a single DL385g1 system which cannot keep up with the
95 load that the BTS causes.
96
97 Owner@bugs would like to split the BTS accross multiple hosts: two for incoming
98 email and spam filtering (would not be required if we had the setup mentioned
99 above), one master, and at least two user-facing web servers.
100
101 Requirements (assuming the above mentioned mail system is in place, else add
102 two mail servers):
103
104 * two systems with fast disks (we don't need that much storage, some 200 gigs
105   should suffice easily for a while - say 4x140 gig raid10), some ram for
106   caching (say 16g?), and the CPU to handle the scripts (if we can get two quad
107   cores per box that would be great).
108 * one master that processes incoming email, changing bugs as required, and
109   pushes the changes to the web facing servers.
110
111 Proposers:
112
113 * Don Armstrong
114
115 If the snapshot hosts go through we might be able to put the bugs front end
116 webservers on them too. Probably a question of load but it can't hardly be
117 worse than rietz at the moment.
118
119 Status (2009-05-04):
120
121 We were quite successful in using other hosts as bugs web mirrors (even if
122 right now we aren't running any due to other hardware failing), so that is
123 a more or less solved problem.  We also intent to move bugs-master to a kvm
124 domain at ubc/ece once the blade there is fixed.  And we can probably move
125 incoming MX to a blade instance in darmstadt and another one at the same
126 place as new bugs-master will be if the bugs folks still want that.
127
128 == new ftp-master ==
129
130 ftp-master's hardware is becoming old and warranty is running out (we keep extending it, but that's not for free either).
131
132 We probably should look into getting a new machine somewhere in the US.  Apart
133 from recent CPUs, reasonable amount of ram (16-32g?) and the usual management
134 fu primary requirement is reliable storage.  We probably should look at some
135 raid6, either internal or external for the master copy of the archive in the range
136 of 2-4T (is that right, ftp folks?).  Additionally some faster internal storage
137 could be useful for the database part of the ftp archive (4 disks raid10?).
138
139 Status (2010-05-20):
140
141 HP DL380 G6 machine in place at CS Dept. Brown University. In setup