Version 17 (modified by 13 years ago) (diff) | ,
---|
Om deze achterstand weg te werken wil ik vrijdag middag van jullie een lijst van alle relevante user stories in 1 word document/dropbox of (gcc) wiki (wat jullie voorkeur heeft). Per story wil ik dat jullie opschrijven:
- de acceptance criteria / demo / requirements
- al jullie open vragen, hoe onnozel ook
- schets van voorlopig ontwerp / implementatie status
- de taken die jullie hiervoor op het scrum bord hebben staan
As LL team we want to be able to deploy VMs with a basic toolset
As LL team we want to connect each WOM to the proper VM
As LL team we want to provide a Molgenis Research Portal for each study
Scrum: ticket:949
In the Molgenis Research Portal, we want to have a Phenotype Matrix Viewer
Scrum: ticket:1050
As a user, I want to select a phenotype and a list of individuals in the Molgenis Research Portal and then run a GWAS on the LL geno data
We must have the imputed Third Release geno data on gpfs storage
- Harm-Jan is currently imputing; this will take another two weeks.
- After that we can upload these data (in TriTyper? format?) to gpfs.
Harm-Jan:
Op dit moment ben ik de genotype data van LifeLines release 3 aan het imputeren op het millipede cluster. Ik zal proberen deze in de gestelde twee weken klaar te hebben. Als dit allemaal is afgerond heb ik een file die voor elke SNP aangeeft wat de imputatie kwaliteit is geweest (mbv de door BEAGLE aangegeven r2 kwaliteits score), per 300 samples. Om de data spoedig te imputeren deel ik de totale dataset namelijk op in batches van ongeveer 300. Ik zal er voor zorgen dat er een koppeltabel komt die aangeeft welke sample in welke batch zit en geef daarnaast ook de gemiddelde imputatie score over alle batches. Daarnaast loont het de moeite om voor elke SNP ook de minor allele frequency (MAF) en de Hardy-Weinberg p-waarde (HWEP) te presenteren. Deze HWEP is een waarde die aangeeft of de verdeling van de allelfrequentie voor een SNP overeenkomt met de verwachte allelfrequentie verdeling voor die SNP. We hebben eerder gezien dat een lage HWEP vaak samen gaat met een lage imputatie kwaliteit (ie: door fouten in imputatie wijkt de werkelijke allelfrequentie verdeling af van de verwachte). Bovendien zijn deze waardes zijn eenvoudig uit te rekenen met de software die ik Joeri eerder heb gegeven. Daarnaast kan de MAF ook informatief zijn aangezien laag-frequente SNPs (MAF < 0.01) slecht geimputeerd worden in de huidige setting, aangezien de referentie dataset slechts 90 samples bevat.
Morris:
2 vraagjes:
(1) Wat is de preciese imputatie procedure? (of verschilt die niet van wat Alex doet)? We moeten onderzoekers namelijk precies kunnen vertellen wat ze krijgen.
(2) Dit is namelijk iets wat LifeLines straks gewoon zelf moet kunnen (dwz Alex pipeline werkt al op compute dus als die identiek is hebben we 'go').
@Joeri: het zou mooi zijn alle info die HarmJan? nu noemt dus ook getoond kunnen worden. Je zou HWE en MAF kunnen zien als features, elke SNP als target, en dan dus values voor elke combo.
We need to be able to link geno to pheno data
Proposal by Jan-Lucas:
Uitgangspunten:
- Marcel spreadsheet bevat LLPatient ID's en Marcel Pseudoniemen (gekoppeld).
- LL PatientID's gaan niet van LRA naar Target Stage.
- Target Stage bevat LL bronpseudoniem.
- Voor onderzoek wordt LL bronpseudoniem vervangen door onderzoekpseudoniem.
Voorstel zelf:
- Marcels spreadsheet wordt geimporteerd in LRA, indien niet mogelijk in aparte database.
- Bij aanmaken dataset in UMCG Publish voor een onderzoek wordt Marcels spreadsheet op dezelfde manier gepseudonimiseerd als de LRA data, van Patient ID naar bronpseudoniem naar onderzoekspseudoniem. Dit levert lijst op met onderzoekspseudoniem en Marcelpseudoniem.
- Lijst gaat mee in data export/import naar CIT Publish.
- Op CIT publish komt een view die vertaling maakt van Marcelpseudoniem naar onderzoekspseudoniem per onderzoek. View kan relatoneel zijn, maar ook XML opeleveren.
- Op CIT publish komt een database procedure voor legen van tabel met pseudoniemen.
- Als LRA dat op CIT Publish staat wordt view uitgelezen, op basis hiervan kan procedure "replace pseudonyms" uitgevoerd worden (uit Gert-Jans PPTX).
- Na procedure "replace pseudonyms" wordt eventueel aangemaakte file met pseudoniemen verwijderd. (Bij voorkeur heeft procedure die lijst in memory, maar als in file dan moet deze verwijderd.
- Na procedure "replace pseudonyms" wordt tabel met pseudoniemen geleegd voor dat onderzoek, dan met aanroepen database procedure.
As a LL data manager, I want to have a Catalog of the LL phenotype data
- Functional design / mock-up of Catalog on Catalogue
- We still need a technical design of the Catalog.
- Despoina and Chao need LL metadata to fill their first version of the catalog with. Joris will provide them these data, however, they are still incomplete and will probably change.
As a LL data manager, I want to load data from publish layer into EAV (pheno model)
I don't know if this is the right place to put this, but this is more a to-do for the "dataLoader". At this moment the loader is able to load data into pheno model.
- Add logging (so we can see what going on when it crashes in production environment, if it ever occurs)
- Add Thread Monitor
- How to handle/load/implement descriptive tables like LAB_BEPALING, this table is actually big list of Measurements with a lot of extra fields.
- options:
- Create a new type that extends Measurement and hold the additional fields
- Merge data into the label of Category
- options:
- How to handle/load/implement the table that describes which foreign keys are used between the tables.
- The matrix viewer should know this info as well to build correct queries
- Re-factor lifelines packages (it a little bit messy), remove old not used code anymore and place in descriptive packages
- Remove JPA dependencies
- Many-to-many in JPA are not working properly with Labels, for example ov.setTarget_Name("x"). In JDBCMapper this is solved, but know not where and how we could best do this for JPA. This set by label should also be put into generated test.
- Update CSV readers to be multi threaded?
- In (production) environment it's not a bad idea to put the java executable in the Oracle VM that part of the database.
- Last but not least, Test if data is loaded correctly (Test from Anco).
- The views that are generated on top of pheno model has a bug on null values and casting