Version 17 (modified by 13 years ago) (diff) | ,
---|
General backlog
Table of Contents
Backlogs per app:
- apps/catalogue
- apps/animaldb
- apps/lifelines and apps/xqtl and apps/lifelines
- apps/xqtl and apps/xqtl
Backlogs per module:
As PLINK user I want…
- download plink genotype file
- create plink file in background via quartz
- disable f5-en
- have plink file created faster
As matrix developer I want
- Specify what columns to show
As a matrix user I want…
- view geno data just as pheno data
- download geno data to plink file
- to filter on 'null' (not existent observedvalue)
- to know what protocol measurement comes from (nu zie je alleen measurements)
- type safe 'date' filter
- see tooltip for column headers
- have a matrix of 0 columns (only patient ids)
- maximum on 'limit' (so can't load everything)
- not see patients that have no values at all (?)
- group headers per protocol (evt tree)
- have 'pa_id' => 'name'
- export all spss zonder demo versie (licentie betalen)
- label spss codebook
- toggle to show labels or values for categorical
- I want to have rich html in my values (so I can could make a 'create litter' action)
- I want to hover values to see details
- I want to see targetproperties as column (e.g. Location.endtime) so I can filter on that
- I want to highlight newly added records
As PLINK user I want…
- create plink file in background via quartz
- disable f5-en
- have plink file created faster
As catalogue user I want …
- data requests to be stored in the database and sent per email
- to follow my data request (track, need to copy paper submission)
- have 'delete' on my selections
- download measurements via simple user interface
As Measurement user I want to …
- use 'xref(Individual)' as a dataType
- create a xref filter, e.g. TypeOfGroup?=Species
As a location manager…
- I want manage locations in treeview
As a developer I want …
- FreemarkerWidget? so I can inject freemarker anywhere in my java user interface
As in-house pipeline user I want the following
Oplossen van:
- Probleem: Marcel en Wil kan nog niet bij umcg queue. Gaan we oplossen via 'gcc' user.
- Probleem: problemen met argumenten, foutmeldingen beter
- Probleem: analyse run nummer lijkt hard gecodeerd (argument)
- Probleem: als je niet alle argumenten worden gegeven krijg je dan goede foutmelden, en zijn er args gegeven die ie niet snapt
- Probleem: runnen moet nu per project zodat scripts netjes gescheiden
- Probleem: Filteren met google docs gaat niet altijd zoals verwacht want je moet eerst alles selecteren
- Probleem: Er kwam geen QC mapje want per project moet je alles/niets concordance hebben
Besluiten:
- Besluit: Jobslog op een logische plek; bijvoorbeeld van hematologie. Beslissing: in de jobs directory.
- Besluit: Outputs per sample wegschrijven in subfolder intermediate. => dus daarvoor parameters.csv aanpassen (maar eerst kijken of we niet protocollen moet checken).
- Besluit: Demultiplexing moet voor alle samples, discarded reads in edemultiplexinfo. Aanpassen zodat de '_discarded' in zelfde rawdata/run/flowcell dir komt als '_barcode'.
- Besluit: jobnamen willen we graag de 'target' in de jobnaam (dus dan moet dependency via nummertjes). Maakt eenvoudiger om jobs te monitoren en te debuggen
- Besluit: release cycle waarin elke vier weken SOP + code opnieuw wordt uitgeleverd + test set.
- Besluit: afwijkingen op het SOP tijdens het runnen worden in een readme per project bijgehouden
- Besluit: alle analyses gaan runnen onder 'gcc' user vanwege permissies. Dit moet (a) via su gcc of (b) via keys makkelijk worden.
- Vraag: kan dat ook voor millipede???
- Besluit: moeten Marcel, Wil en Martijn up to speed brengen met database progress
Naast bovenstaande, eerste acties:
- demultiplex pipeline maken en runnen voor alle samples.
- generator maken om 'per project' worksheets te maken